Erste Einführung in die Textauszeichnung für Epigraphiker

Die Konzepte von EpiDoc vereinigen traditionelle und hochmoderne Editionsmethoden und –konventionen für Epigraphiker.

Epigraphische Konventionen

Während des vergangenen Jahrhunderts hatten Epigraphiker mit den Problemen der Darstellung von non-verbaler Information in ihren schriftlichen Texten zu kämpfen. Bis zum Ende des neunzehnten Jahrhunderts konnte von Herausgebern erwartet werden, ein Faksimile des Textes herzustellen, dies wurde jedoch immer unüblicher, und parallel dazu hatten Verleger nicht den Willen, jeden Text ausführlich fotografisch zu dokumentieren. Die Konventionen, die mühevoll erarbeitet wurden, um fehlenden Text, Abkürzungen usw. darzustellen, fanden seit den 1930er Jahren mehr oder weniger allgemeine Zustimmung und überschneiden sich zu einem gewissen Grade mit denen, die in Papyrologie und Paläographie verwendet werden. Alle Epigraphiker mussten sich mit den Problemen auseinandersetzen, die mit der Übertragung dieser Darstellungsweisen in ein elektronisches Umfeld einhergingen – beispielsweise, eine Schriftart zu finden, die es ermöglicht, einen Punkt unter einen unsicheren Buchstaben zu setzen; die meisten von uns haben sich allerdings mittlerweile an diese neuen Beschränkungen angepasst.

Die Schwierigkeit, solche Konventionen und insbesondere griechische Buchstaben in einheitlichen Schriftarten und im Internet wiederzugeben, verspätete häufig die Veröffentlichung vollständiger epigraphischer Texte online. Stattdessen wurden außerordentlich inhaltsreiche durchsuchbare Sammlungen erstellt; darunter sind die bedeutsamsten:

Siehe auch: Conformance (EpiDoc Kompatibilität).

All diese Entwicklungen waren daher bestimmt durch den Stand der bestehenden technischen Möglichkeiten, die im Laufe des 20. Jahrhunderts voranschritten. Das Ziel von EpiDoc ist es, neue und vielversprechende Technologien für die traditionellen Zwecke der Epigraphik zu nutzen. Viele der oben beschriebenen Prozesse bedeuteten Konflikte mit den technologischen Standards, etwa in gedruckten Publikationen, um so vielen unserer Anforderungen wie möglich entgegenzukommen. In diesem Zeitraum wurde es dauernd schwieriger, konventionelle Verlage zu überzeugen, unseren Bedürfnissen entgegenzukommen, um Meta-Text-Informationen einzubauen, außer unter enormem Kostenaufwand. Gleichzeitig wuchsen die Erwartungen über das Volumen von Begleitinformationen beträchtlich; ebenso wie Informationen über die Beschaffenheit sind fotografische Illustrationen heute Standard.

Seit etwa fünfzehn Jahren setzen sich Wissenschaftler allgemein mit ähnlichen Anforderungen auseinander, Meta-Daten ihrer Texte in deren elektronische Form zu integrieren, und es sind Tools entstanden, die dies immer weiter vereinfachen und die Resultate immer wertvoller machen. Textverarbeitungsprogramme, die seit den 1980er Jahren im Umlauf sind, erlauben uns, die Formatierung unserer Texte durch Markup, das jetzt unsichtbar durch die Software integriert wird, zu kontrollieren. Die anspruchsvolleren Bedürfnisse von Dokumentsammlungen mit großem Umfang – Gesetzestexte, industrielle Dokumentation, kommerzielles Publizieren – führte in den 1980er Jahren zur Erkundung von Möglichkeiten, ein weiteres Repertoire an Informationen und Instruktionen in elektronischem Text einzubauen. Zunächst wurde dem Einsatz von Formatierungsinstruktionen Aufmerksamkeit geschenkt, bald aber entstanden Methoden, komplexere semantische Informationen über die Dokumentstruktur, und sogar den Inhalt zu umfassen. Ein einfaches Beispiel ist, einen Buchtitel als Titel zu markieren, anstatt ihn einfach als Kursivschrift auszuzeichnen. Der Gebrauch von abstrakterem Markup ermöglicht eine Differenzierung von Struktur und Darstellung, wo die Struktur recht wesentlich für das Genre eines Dokuments ist, während die Darstellung je nach Form der Publikation variiert werden kann. In gewisser Weise versinnbildlicht diese Verschiebung eine Rückkehr zu einer früheren Arbeitsweise, nach der die Materie eines Textes Sache der Autoren waren und alle Details der Darstellung im Publikationsprozess bearbeitet wurden – eine Unterscheidung, die in den Tagen der druckreifen Kopie verloren geht.

Die Protokolle, die aus diesen letzteren Bemühungen entstanden, wurden in den späteren 1980er Jahren standardisiert, da die Normierte Verallgemeinerte Auszeichnungssprache (Standard Generalized Markup Language), und erhielten in noch jüngerer Zeit in der Form der erweiterbaren Auszeichnungssprache XML (Extensible Markup Language) eine einfachere und flexiblere Form für den Gebrauch im Internet. XML wird nun in einem breiten Spektrum geisteswissenschaftlicher Disziplinen von Wissenschaftlern verwendet, um Forschungsmaterialien zu erfassen, darzustellen und für ein weites Spektrum von Nutzungsmöglichkeiten zu bewahren.

Die Vorteile von XML für Epigraphiker sind also beträchtlich. Ein Beispiel: Fehlendes Material kann als solches ausgezeichnet werden und dann mit eckigen Klammern dargestellt werden; gleichzeitig kann eine Suche ausgeführt werden, die nur Text findet, der nicht als fehlend ausgezeichnet wurde (d.h. nur solchen, der mit Sicherheit attestiert ist). Unsichere Buchstaben können als solche ausgezeichnet werden, sodass zu einem späteren Zeitpunkt entschieden werden kann, ob sie mit einem Unterpunkt oder auf eine andere Weise dargestellt werden sollen. Wörter können bei der Herausgabe lemmatisiert werden, um Indices zu erstellen, die mit Heranwachsen der Sammlung ebenfalls größer werden. An diesem Punkt ist es jedoch von Bedeutung, die „Leiden“-Prozedur erneut durchzugehen: das heißt, elektronische Äquivalente für die verschiedenen Siglen, die wir verwenden, zu vereinbaren. Dies ist erstens ganz einfach für die Einsparung von Zeit und Mühen relevant; aber ebenso relevant bleibt Kontinuität (die keine Einheitlichkeit erzwingt). Sie unterstützt nicht nur den Anwender wie auf einer gedruckten Seite, sondern Dokumente, die auf diese Weise herausgegeben und elektronisch publiziert werden, sind gemeinsam nutzbar, auch wenn sie unabhängig voneinander erarbeitet wurden.

Die Notwenigkeit vereinbarter Standards beschränkt sich nicht auf Epigraphik. Seit 1987 arbeitete eine Gruppe überwiegend von Geisteswissenschaftlern daran, eine Reihe von Richtlinien für die Beschreibung der Struktur und des Inhalts von Dokumenten zu entwickelt und zu verbessern. Die Ergebnisse dieses Bestrebens resultierten in einer Kodierungssprache, verwirklicht in XML und beschrieben durch den Namen der Gruppe, Initiative für Textkodierung (Text Encoding Initiatve, TEI)

TEI für Epigraphiker: Was ist es, und wozu wird es verwendet?

Die Text Encoding Initiative ist ein Forschungsprojekt, das die Definition einer Kodierungssprache zum Ziel hat, die ganz allgemein die Bedürfnisse von Geisteswissenschaftlern erfüllt. Es gibt zwei Hauptziele, die die Entwicklung der TEI motivieren. Das erste ist es, Wissenschaftlern zu ermöglichen, ihre Forschungsmaterialien durch Gebrauch einer Beschreibungssprache, die die analytische Terminologie und Konzepte reflektiert, die in den Geisteswissenschaften gebräuchlich und von Bedeutung sind, in digitaler Form zu präsentieren. Das zweite ist, Wissenschaftlern zu ermöglichen, die resultierenden Materialien verständlich zu präsentieren, indem eine gemeinsame Beschreibungssprache genutzt wird.

Wir können uns die TEI-Kodierungssprache ähnlich wie eine menschliche Sprache vorstellen: ein Kern an gemeinsamen Begriffen in der Mitte, umgeben von weniger weit verbreiteten Vokabularien, die lokale Verwendungen beinhalten, spezialisierte Terminologie und andere Variationen. Im Kern der TEI stehen gemeinsame Begriffe und Konzepte, an deren Gebrauch Wissenschaftler der meisten Disziplinen teilhaben: Elemente wie Absätze, genrespezifische Textunterteilungen, Überschriften, Listen und so weiter. Spezialisiertere Elemente werden je nach Anwendung gruppiert, beispielsweise Elemente zur detaillierten Auszeichnung von Namen, Elemente zur Wiedergabe der Eigenschaften eines Manuskripts, Elemente zur Fassung der Struktur eines Wörterbuches und so weiter. Die TEI ist so international in Module eingeordnet, sodass Wissenschaftler aus in bestimmten Fachbereichen nur die Module, die für ihre Arbeit relevant sind, verwenden und andere auslassen können. Die TEI kann somit eine große Breite erreichen, ohne einzelne Wissenschaftler und Projekte damit zu belasten, eine große Masse an Fähigkeiten bewältigen zu müssen, von der vieles nur für andere Fachbereiche relevant ist. Im Gegenteil, die TEI-Kodierungssprache kann sehr direkt auf spezielle Bereiche oder Aufgaben angepasst und auf das, was für die Arbeit eines Projektes essenziell ist, beschränkt werden.

Wie eine menschliche Sprache kann TEI auf eine Weise genutzt werden, die sich vielfältigen und nuancierten Vokabulars bedient, mit detaillierten Kodierungen, die eine lange Reihe an Textphänomenen beschreibt, aber sie kann ebenso sehr einfach verwendet werden, indem nur ein paar essenzielle Konzepte gebraucht werden, die nur die grundlegendsten Textdaten beschreiben: Unterteilungen, Überschriften, Absätze. Je detaillierter die Kodierung ist, umso breiter sind die Verwendungsmöglichkeiten des Textes, aber Faktoren wie Zeit, Kosten, verfügbare Mitarbeiter und lokale Sachkunde können dem machbaren Detailreichtum Grenzen setzen.

Über die Bereitstellung eines Kodierungssystems hinaus, das Wissenschaftler in seiner ursprünglichen Form nutzen können, bietet die TEI wissenschaftlichen Projekten auch die Möglichkeit, angepasste Versionen der TEI-Sprache zu definieren, die Änderungen enthalten, die für die Unterstützung von lokalen Bedürfnissen notwendig sind. Da diese angepassten Versionen innerhalb des Rahmens von TEI funktionieren, können sie den weit verbreitet verwendeten Kern von Begriffen und Konzepten verwenden und dadurch unnötige Arbeit in deren Neuschaffung vermeiden. Und da die TEI einen gemeinsamen Rahmen für die Schaffung und Beschreibung von Anpassungen bietet, können diese Anpassungen einfach und fruchtbar verbreitet werden. Dadurch können Gruppen von Wissenschaftlern in einzelnen Fachbereichen die besonderen Zwecke und Methoden artikulieren, die ihre Arbeit charakterisieren, und die Unterschiede, die sie von anderen, die in verwandten Bereichen arbeiten, differenzieren. Anstelle von untereinander nicht verständlichen Ansätzen können verschiedene Projekte Ergebnisse produzieren, deren Unterschiede aus tatsächlichen Diskrepanzen herrühren, und nicht von einfachen Zufallsabweichungen.

Die Anpassung durch EpiDoc: TEI für Epigraphiker

In diesem Rahmen arbeitet die EpiDoc-Gemeinschaft seit 2000 daran, eine angepasste Version der TEI-Richtlinien zu entwickeln, um den besonderen Bedürfnissen von Epigraphikern gerecht zu werden. Die Idee wurde von Tom Elliott, einem Althistoriker an der University of North Carolina at Chapel Hill, in Angriff genommen. Das Ziel ist, sowohl die bereits getane Arbeit so gut wie möglich zu nutzen und sicherzustellen, dass Texte, die eingemeißelt sind, auf eine Weise behandelt werden, die mit der für andere Texte vereinbar ist, und sie nicht ausgrenzt. Die EpiDoc-Anpassung entfernt irrelevante Elemente aus dem Corpus der TEI und fügt Bestimmungen für bestimmte Arten der Transkription, Analyse, Beschreibung und Klassifizierung hinzu, die für epigraphische Arbeit von Bedeutung sind. Das Ergebnis ist eine einfache, und doch ausdrucksstarke Sprache, die verwendet werden kann, um alle Eigenschaften von Inschriften auszuzeichnen und auch die begleitenden Informationen über das epigraphische Objekt selbst wiederzugeben.

Als Ergänzung zur EpiDoc-Kodierungssprache produzierte die EpiDoc-Gemeinschaft eine Sammlung von Kodierungsrichtlinien (Guidelines) und Software-Tools, sowie Aufzeichnungen, die beschreiben, wie die Kodierungssprache, die Tools und die anderen Elemente der EpiDoc-Methodik anzuwenden sind. Das Ziel ist es, einen Referenzrahmen zu etablieren, der leicht zu erlernen und zu nutzen ist, sogar für Wissenschaftler, die kein technisches Hintergrundwissen oder Unterstützung haben. Das mag unwahrscheinlich klingen, aber das Unternehmen hat denselben Stellenwert wie das Erlernen der Auszeichnung eines epigraphischen Textes mit der vorhandenen Reihe an Siglen.

Die Gruppe arbeitet daran, Ausdrücke für alle vereinbarten epigraphischen Konventionen zu entwickeln. Sie erweiterte diese Anleitung, um verschiedene Bereiche anzusprechen, die in einer epigraphischen Publikation wiedergegeben werden könnten, unter anderem:

Siehe auch: Dokumentstruktur (Document Structure).

Ein weiterer Bereich, der gegenwärtig erkundet wird, ist die Entwicklung von Kompatibilität. Ein Software-Tool für die Umwandlung von Texten in normalem epigraphischen Markup in EpiDoc-XML wurde bereits entwickelt (der sogenannte Chapel Hill Electronic Text Converter (CHETC)). Andere Bereiche beziehen sich auf den Gebrauch autoritativer Lexika. Beispielsweise arbeitet das Projekt Inschriften von Aphrodisias (Inscriptions of Aphrodisias) eng mit dem Lexikon für Eigennamen (Lexicon of Greek Personal Names) zusammen, um volle Erfassung und einheitlichen Gebrauch zu gewährleisten.

Die Arbeit unter der Leitung von Dr. Elliott wurde von zahlreichen Wissenschaftlern unternommen, die eng zusammenarbeiten und in regelmäßigem Kontakt mit dem weiteren Berufskreis stehen. Sie haben die Erfahrungen eines etablierten EpiDoc-Projekts, Vindolanda Tablets on line, und zweier neuer Projekte genutzt: Das USA Epigraphik Projekt (US Epigraphy Project (USEP)), unterstützt von den Universitäten Brown, Princeton und Rutgers, und das Projekt Inschriften von Aphrodisias (Inscriptions of Aphrodisias Project (InsAph)) (unterstützt durch den Forschungsrat der Geisteswissenschaften (Arts and Humanities Research Council)). Die großzügige Unterstützung des AHRC erlaubte den Intensivworkshop im März 2006, auf dem diese Richtlinien verbessert wurden.

Verantwortlich für diesen Abschnitt

  1. Charlotte Roueché, Autorin
  2. Julia Flanders, Autorin
  3. Laura Löser, Übersetzung aus dem Englischen
  4. Tom Elliott, Umwandlung aus TEI-Lite und verschiedene Reformatierungsänderungen
  5. Gabriel Bodard, Korrigiert einige Links

EpiDoc version: 8.19

Date: 2014-07-31