Hier finden Sie Informationen zum Programm des Workshops und Links zu den Vortragsfolien
(Programm: Stand 09.10.2020)
Mittwoch, 07.10.2020 – Sitzung der AG, Virtuelle Vorträge und Abendvortrag
10:00 – 12:30 Uhr Geschäftssitzung der AG eHumanities (nur Mitglieder)
12.30 – 13.30 Uhr Mittagspause
13.30 – 13.45 Uhr Grußworte und Einführung
Jonas Maatsch
Generalsekretär der Akademie der Wissenschaften zu Göttingen
Andreas Speer
Vorsitzender der AG eHumanities
14.00 – 15.15 Uhr Vorträge (Chair: Alexander Czmiel)
Eckhart Arnold (BAdW)
Von Open Data zu FAIR-Data. Was hat sich geändert (Folien)
Abstract
Open Data verlangt, dass Forschungsdaten frei unter einer Creative Commons Lizenz zur Verfügung gestellt werden. FAIR-Data präzisiert und ergänzt dieses Ziel in drei Punkten:
1. begrifflich: Auch unfreie Daten können FAIR sein, wenn es einen tauglichen Rechtfertigungsgrund für die Nicht-Freigabe gibt, z.B. Persönlichkeitsrechte.
2. normativ: FAIR gilt in beide Richtungen und verpflichtet nicht nur den Datengeber (zur Freigabe), sondern auch den Datennehmer zur Einhaltung von Fairnesspflichten.
(Die Konkretisierung dieser Pflichten kann von Fach zu Fach variieren.)
3. technisch: FAIR bedeutet, dass Daten nicht nur de jure frei zugänglich sind, sondern die Nachnutzung auch technisch ermöglicht wird. Dazu müssen sie durch Permalinks zitierbar und durch Massendownload maschinell nutzbar angeboten werden.
Im Vortrag werden diese drei Punkte erläutert und ihr Sinn wissenschaftstheoretisch begründet.
Bärbel Kröger und Christian Popp (AdWG)
FAIR Germania Sacra (Folien)
Abstract
Wir möchten anhand der Daten der Germania Sacra ein Praxisbeispiel für die Umsetzung der FAIR-Prinzipien für den Bereich der Forschungsdaten zur Vormoderne skizzieren. Ein Schwerpunkt dabei soll auf dem Thema Interoperabilität (unter anderem mit Blick auf semantische Konzepte) liegen. Wir werden Aspekte eingehen, die für den Bereich der historisch arbeitenden Fachwissenschaften beim Umgang mit den FAIR-Leitlinien eine besondere Rolle spielen (etwa geringe digitale Erschließungsdichte des Quellenmaterials, komplexe Anforderungen für Strukturierung, Normierung und interoperable Bereitstellung, etwa für personengeschichtliche Daten aus dem Bereich der Mittelalter- und Frühneuzeitforschung). Diese Ausführungen werden im Ausblick zu einer kurzen Vorstellung des durch das Niedersächsische Ministerium für Wissenschaft und Kultur bewilligten Projektes „Wissens-Aggregator Mittelalter und Frühe Neuzeit (WIAG) – Strukturierung, Standardisierung und Bereitstellung von Forschungsdaten aus Sach- und Schriftquellen des Mittelalters und der Frühen Neuzeit“ führen.
Jürgen Herold, Jörg Witzel, Markus Studer (DIO)
Datenstandards und Normdaten – FAIR-data in der Mittelalter- und Neuzeit-Epigraphik (Folien)
Abstract
Als interakademisches Projekt verfolgen die Deutschen Inschriften Online (DIO) seit zehn Jahren das Ziel, die Bände der Deutschen Inschriften zu publizieren, welche ihrerseits einen großen Teil der Erforschung mittelalterlicher und frühneuzeitlicher Inschriften im deutschen Sprachraum repräsentieren. Zwar war das Prinzip der FAIR-Data zu Beginn des Projektes noch nicht formuliert, jedoch wurden wichtige Bestandteile, wie etwa die Nutzung von persistenten Identifikatoren, von Vornherein berücksichtigt. Wie FAIR die DIO waren und sind und welche Herausforderungen sich für künftige Entwicklungen ergeben könnten, soll der Beitrag aufzeigen.
15:30 – 16.00 Uhr Virtuelle Kaffeepause
16.00 – 17.15 Uhr Vorträge (Chair: Torsten Roeder)
Katja Diederichs (AWK-NRW)
Textdatenbank und Wörterbuch des Klassischen Maya (MP4, 80MB, Ton: VLC!)
Abstract
Zum gemeinsamen Austausch von konkreten Erfahrungen in der Umsetzung der FAIR-Data-Prinzipien möchte das hier vorgestellte NRW-Akademienprojekt „Textdatenbank und Wörterbuch des Klassischen Maya“ (kurz: TWKM-Projekt) etwas beitragen. Das Projekt ist primär in der Domäne der altamerikanistischen Epigrafik und Kulturwissenschaft verortet. Es dient der Erforschung der noch nicht vollständig entzifferten Schrift der vorspanischen klassischen Maya-Kultur. Ziel ist es, mittels digitaler Methoden und Texttechnologien die epigraphischen Daten zu digitalisieren. D.h. in einer Ontologie die Wissensgegenstände um die Hieroglyphentexte der Maya zu beschreiben, und des weiteren die Analyse aller bisher bekannten Hieroglyphentexte des Klassischen Maya in einem selbst erstellten maschinenlesbaren Korpus zu ermöglichen. Dabei soll gegen Projektende eine Datenbank sowie ein digitales Wörterbuch zur Klassischen Mayaschrift veröffentlicht werden.
Im TWKM-Projekt bleibt die praktische Implementierung der FAIR-Prinzipen noch teilweise offen. Das liegt daran, dass das Projekt sich noch in der Phase des Aufbaus und der Erstellung der zu publizierenden Daten und Forschungsergebnisse befindet. Im Rahmen des Workshops werden wir anhand von Berichten aus unserer Projektarbeit thematisieren, inwiefern die Gewährleistung der Daten-FAIRness bereits jetzt in jedem Schritt des Projekts im Auge zu behalten sind. Dabei spielen auch die verschieden verschränkten Domänen eine große Rolle. Wir werden hierfür unsere technische Infrastruktur und die gewählten Werkzeuge und Methoden bei der Arbeit an unseren Forschungsdaten näher vorstellen. Für die „Findability“ und „Accessibility“ werden die sich noch in ihrer Entstehungsphase befindenden Forschungsdaten im TextGrid-Repositorium publiziert. Dieses ist eingebunden in die europaweit vernetzte Forschungsinfrastruktur DARIAH. Die digitalen Wissensinhalte des Projekts werden weitestgehend unter der Nutzung von Standards erstellt, die zugleich offen sind und die „Interoperability“ gewährleisten sollen. Die RDF-Daten, aus denen unsere objektgeschichtliche Ontologie aufgebaut wird, sind im Standard CIDOC-CRM beschrieben. Sie werden in Triple-Stores abgespeichert, und per SPARQL-Endpoint zugänglich gemacht. Dabei werden u.a. RDF-Daten erstellt, welche Metadaten zu den Textträgern, zum Forschungskontext, zum Zeichenkatalog und zu kontrollierten Vokabulare abbilden. Zur Textanalyse werden Daten im Standardformat TEI beschrieben.
Etliche Bilder von Textträgern sind bereits in einer projekteigenen Bilddatenbank mittels einer vorgegebenen Software publiziert, und werden weiterhin erschlossen. Hierbei konnten im Projekt bereits einige Erfahrungen gemacht werden mit der erforderlichen “Re-useabilty”. Denn die bereits publizierten Daten in der Bilddatenbank, dem Maya Image Archive, werden seit kurzem nachgenutzt. Hierzu werden wir berichten, inwiefern die domänenspezifische Modellierung und Software eine große Rolle für die Nachnutzung von Daten spielte. Dabei werden wir auf Sinn und Zweck von interoperablen Formaten, Technologien aber auch deren Dokumentation eingehen, die für das Mapping und die sinnvolle Informationsintegration – sprich den interoperablen Datenaustausch – zwischen verschiedenen Systemen nötig sind.
Quellen:
2016: Mark D. Wilkinson, Michel Dumontier[…]Barend Mons: The FAIR Guiding Principles for scientific data management and stewardship. Scientific Data volume 3, Article number: 160018
Treloar, Andrew: Private Research, Shared Research, Publication, and the Boundary Transitions. Online abrufbar unter: http://andrew.treloar.net/research/diagrams/data_curation_continuum.pdf. Letzter Abruf 20.3.2018.
Links:
Website: http://mayadictionary.de
Maya Image Archive: https://classicmayan.kor.de.dariah.eu/
Metadatenschema des Maya Image Archives: https://classicmayan.kor.de.dariah.eu/static/help
Weitere Infos zur Bilddatenbank inkl. Skripte etc.: https://github.com/Diederka/Maya-Image-Database-Metadata_Schema-Scripts-Data
SPARQL-Endpoints: https://www.classicmayan.org/trip/
https://www.classicmayan.org/trip/dataset.html?tab=query&ds=/metadata
https://www.classicmayan.org/trip/dataset.html?tab=query&ds=/vocabularies
Unsere Metadatenschemadoku auf git: https://projects.gwdg.de/projects/mayandatabase/repository
C. Sommer, A. Kandel, Z. Kanaeva, M. Haidle & V. Hochschild (HAdW)
The ROCEEH ROAD to a FAIR database (Folien)
Abstract
Die Forschungsstelle The Role of Culture in Early Expansions of Humans (ROCEEH) der Heidelberger Akademie der Wissenschaften hat es sich zur Aufgabe gemacht, ein systemisches Verständnis der „Menschwerdung“ im Zeitraum von 3 Millionen Jahren bis 20.000 Jahren vor heute in Afrika und Eurasien zu gewinnen. Dabei spielt die ROCEEH Out of Africa Database (ROAD) eine zentrale Rolle, die archäologische Fundstellen und deren kulturelle Inventare in einen Kontext mit anthropologischen und Paläoumweltdaten setzt. Das Kernstück bildet eine geo-relationale Datenbank, die vor allem nicht-strukturierte Informationen aus wissenschaftlichen Publikationen systematisiert und katalogisiert. Dies wird ergänzt durch diverse User Interfaces wie browserbasierte Abfragemöglichkeiten („Query Tool“), räumliche Visualisierung („Map Modul“), eine Metadatensuchmaschine für räumliche Daten („Geodata Warehouse“) und der Möglichkeit, benutzerfreundliche Datenblätter zu einzelnen Fundstellen zu exportieren („Locality Factsheets“). Neben dieser Funktion als Data Provider kommt ROAD auch die Rolle als Service Provider zu; über ROAD können verknüpfte Datenbanken wie Neotoma (https://www.neotomadb.org/), die NQMDB (Neogene-Quaternary Mammals Database) und Geodaten des SFB 806 (https://www.crc806db.uni-koeln.de/start/) abgerufen werden. Eine Vorschau und der Login sind über https://www.roceeh.uni-tuebingen.de/roadweb/ erreichbar.
Als Teil des ROCEEH-Langzeitprojekts mit einer Laufzeit von 20 Jahren (2008 bis 2027) wurde ROAD lange vor der Formulierung der FAIR Prinzipien (Wilkinson et al., 2016) konzipiert und aufgebaut. Zugleich sehen wir in den FAIR Prinzipien einen großen Nutzen für die Sichtbarkeit und Nachhaltigkeit bestehender Datenbanken wie ROAD. Wir möchten deshalb unsere aktuellen Erfahrungen und weitere Maßnahmen vorstellen, eine bestehende Datenbank entsprechend der Prinzipien wie FAIR oder Linked Data verfügbar zu machen, ohne die bewährte Datenbankstruktur verändern zu müssen. Dazu stellen wir konkrete Beispiele vor, wie unsere Daten durch Registrierung in Repositorien und zukünftige Unique Identifier findable und durch diverse Interfaces accessible sind bzw. gemacht werden sollen. Beim Thema interoperability besprechen wir die Problematik der Maschinenlesbarkeit v.a. archäologischer Daten und zeigen Fortschritte, ROAD in standardisierte Schemas und Vokabularien zu mappen, um sie mit anderen Repositorien wie ARIADNEplus zu verknüpfen. Schließlich thematisieren wir die reusability, die teils ungeklärten Lizensierungsfragen, aber auch die Dokumentation der Datenbank und die transparente Darlegung der Quellen. Durch Ausrichtung internationaler Workshops und Konferenzen, aber auch durch die Teilnahme an Konsortien und Arbeitsgruppen erhöhen wir die Sichtbarkeit von ROAD und ermutigen zu Beiträgen und der Nutzung der Datenbank durch die wissenschaftliche Gemeinschaft.
Wilkinson, M. D., Dumontier, M., Aalbersberg, I. J., Appleton, G., Axton, M., Baak, A., . . . Mons, B. (2016). The FAIR Guiding Principles for scientific data management and stewardship. Scientific Data, 3(1), 160018. doi:10.1038/sdata.2016.18
Ulrich B. Schmid (AdWG)
Koptisches Altes Testament (Folien)
17.30– 18.30 Uhr Abendvortrag (Chair: Jörg Wettlaufer)
Ulrike Wuttke (FH Potsdam)
Brauchen wir eine FAIRe (R)evolution? FAIRe Forschungsdaten im Kontext der Akademienforschung. (Folien)
Donnerstag, 08.10.2020 – Online Workshop, Virtuelle Vorträge und Netzwerktreffen
09:00 – 10:15 Uhr Online Workshop
Claudia Engelhardt (SUB/FAIRisFAIR)
Online Workshop: Die FAIR-Prinzipien – was besagen sie und was bedeuten sie für mich Wissenschaftler*in, Infrastrukturmitarbeiter*in oder Softwareentwickler*in? (Folien)
Abstract
Seit ihrer Vorstellung im Jahr 2016 haben die FAIR-Prinzipien (Findability, Accessibility, Interoperability, Reusability) enorme Popularität erlangt und zunehmend erkennen Forschungsförderer, Wissenschaftsorganisationen und anderen Akteure sie als wichtige Leitlinien im Umgang mit Forschungsdaten an. Im Workshop werden die Prinzipien und ihre (praktische) Bedeutung für verschiedene am Forschungsprozess beteiligte Akteure beleuchtet, wobei unter anderem Zwischenergebnisse und Empfehlungen des FAIRsFAIR-Projektes (https://fairsfair.eu/) zum Einsatz kommen. Zudem wird auf Überschneidungen mit und die Abgrenzung zu den verwandten Konzepten „Forschungsdatenmanagement“ und „Open Data“ eingegangen.
10.30 – 11.00 Uhr Virtuelle Kaffeepause
11.00 – 12.15 Uhr Vorträge (Chair: Eckhart Arnold)
Lena Luise Stahn, Jennifer Bunselmeier, Patrick Sahle (AWK-NRW)
Luhmanns digitaler Nachlass (Folien)
Abstract
Werk und Nachlass Niklas Luhmanns, eines der bedeutendsten deutschen Soziologen des 20. Jahrhunderts, zu edieren und dabei sowohl seine Theorien als auch die entstehenden Daten als FAIR zu behandeln, stellt das Projekt “Niklas Luhmann – Theorie als Passion. Wissenschaftliche Erschließung und Edition des Nachlasses” vor große Herausforderungen. Das Langzeitvorhaben (Laufzeit 2015-2030) hat es sich zur Aufgabe gemacht, die bewahrenswerten Teile des Nachlasses (Manuskripte, Zettelkasten, Korrespondenz, Bibliothek) archivarisch zu sichern und in Form einer digitalen Edition mit ausgewählten Druckpublikationen dem Fachpublikum und einer interessierten Öffentlichkeit zur Verfügung zu stellen.
Das Projekt hat auf der Grundlage allgemein etablierter Standards und Workflows bereits eine digitale Präsentation veröffentlicht (https://niklas-luhmann-archiv.de/). Zugleich steht es mit seinen vielfältigen und komplexen Datenmodellen zum “Luhmannschen Denk-Kosmos” im Sinne der FAIRness vor einigen offenen Fragen, die es in den nächsten Jahren zu beantworten gilt, um das Projekt auch hinsichtlich seiner Weiternutzung mit einer Langzeitperspektive auszustatten.
Fünf zentralen Fragen sind dabei von herausragender Bedeutung und sollen für den Workshop zur Diskussion gestellt werden, um im Austausch mit der Fach-Community erste Antworten darauf zu entwickeln.
- Ob und wie soll eine persistente, extern anschlussfähige Identifizierung der digitalen Objekte vorgenommen werden? Dies bezieht Fragen zu Granularität, geeigneten Schemata, Nutzung durch LOD und den Begriff von Forschungsdaten allgemein mit ein.
- Welche Möglichkeiten der Bereitstellung und Zugänglichkeit der Daten innerhalb und jenseits des Portals sind notwendig und praktikabel? Wie treffen andere Projekte Entscheidungen zu Schnittstellen und Repositorien?
- Wie kann eine hinreichende Transparenz zu den bereitgestellten Daten erreicht werden? Welche Rolle spielen dabei Metadaten zu den Forschungsdaten, Beschreibung und Dokumentation der Anwendung oder der verwendeten Methoden? Wie stellen andere Projekte sicher, dass ihre Daten (korrekt) verständlich bleiben?
- Gibt es eine Nachfrage nach angereicherten Exportdaten: Machen “reichere Daten” (LOD, Ontologiebasiert) diese FAIRer?
In welchen Wechselwirkungen stehen all diese Punkte zur Frage der Nachhaltigkeit und dauerhaften Verfügbarkeit der Daten und der Anwendung?
Rafael Nájera (AWK-NRW)
The Averroes Project and DARE: building a practical digital research environment (Link)
Abstract
The Averroes Project is a long term project hosted at the Thomas Institut with the goal of producing high quality critical editions of a number of works by the medieval Andalusian philosopher Averroes. In this contribution, the digital humanities aspects of the project are presented and, in particular, the relation between the Averroes Project and the Digital Averroes Research Environment (DARE), which is also developed and hosted at the Thomas Institut. The practical approach to the development of both systems, including their inter-operation, have made it so that FAIR principles have been implicitly guiding parts of their evolution. The de facto attitude, however, has been not to devote resources to the implementation of alleged compatibility and standardization schemes before such compatibility or standardization is actually needed.
Katja Marciniak (BBAW)
Initiative Forschungsdatenmanagement (Folien) (Fragebogen)
(https://www.bbaw.de/forschung/forschungsdatenmanagement)
Abstract
Im Juli 2020 hat die interdisziplinäre Initiative „Forschungsdatenmanagement“ der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) die Arbeit aufgenommen. Sie stellt sich der Herausforderung, die an der BBAW generierten geisteswissenschaftlichen Forschungsdaten zu ordnen, zu sichern und langfristig verfügbar zu halten. Mit der 2001 gegründeten TELOTA-Initiative beteiligt sich die BBAW seit nunmehr fast zwei Jahrzenten aktiv an den Entwicklungen der Digital Humanities und des Forschungsdatenmanagements. Von Anfang an gehörten zu den Tätigkeiten von TELOTA auch regelmäßige Forschungsdatenmanagementarbeiten in den Bereichen Datenkuration, Datenmigration, Datentransformation, Langzeitarchivierung und die langfristige Verfügbarhaltung von digitalen Präsentationsplattformen. Dieses Aufgabenspektrum gilt es systematisch auszubauen.
Die Empfehlungen zur guten wissenschaftlichen Praxis und auch die akademieinternen Richtlinien sehen vor, dass alle in Forschungsvorhaben erhobenen, bearbeiteten oder erschlossenen Forschungsdaten dauerhaft, mindestens jedoch für 10 Jahre, sicher aufbewahrt werden.
Dadurch werden nicht nur die Transparenz und Nachvollziehbarkeit des Erkenntnisprozesses, sondern auch die breite Nachnutzbarkeit für zukünftige Forschungen gesichert. Die BBAW strebt an, diese Daten ‚für die Ewigkeit‘ verfügbar zu halten. Auch wenn dies ein kaum erfüllbares Versprechen ist, wird sich die BBAW bemühen, ihre Daten zur Unterstützung zukünftiger Forschung so lange wie möglich entsprechend den FAIR-Prinzipien aufzubewahren.
Ein erster Schritt für die Kartierung ist die systematische Bestandsaufnahme der an der BBAW vorhandenen Forschungsdaten, die den Grundstein für die folgenden Arbeitsschritte legt. Dazu zählen neben der Evaluation der aktuellen Forschungsdatenpraxis an der BBAW und der Wissenschaftsakademien der Union insgesamt die Erarbeitung von Leitlinien, Workflows und Best Practices gemäß den FAIR-Prinzipien. Dabei wird ein besonderes Augenmerk auf eine mögliche Vereinheitlichung eingesetzter Standards und Technologien gelegt, um die Komplexität und Heterogenität der Forschungsdaten zu reduzieren, Standardisierungsmöglichkeiten zu identifizieren und damit die Wartbarkeit sowie Nachhaltigkeit der an der BBAW produzierten Forschungsdaten zu verbessern. Es ist dabei insbesondere zu explorieren, ob sich unterschiedliche Ebenen der Standardisierung von Daten und Prozessen so aufeinander abstimmen lassen, dass sowohl die innerhalb der BBAW zu gewährleistende als auch die von Dritten im Rahmen der NFDI übernommene Verpflichtung zur langfristigen Vorhaltung der Forschungsdaten mit angemessenem personellen und finanziellen Ressourceneinsatz verbessert werden kann. Gleichzeitig gilt es, Richtlinien für projekt-spezifische Lösungen zu erarbeiten, die von etablierten Standards abweichen.
Forschungsdatenmanagement ist ein kontinuierlicher Prozess, der bereits vor der eigentlichen Forschung beginnt und weit darüber hinausgeht. Er erfordert bei allen Beteiligten eines Forschungsvorhabens ein hohes Bewusstsein über Standards, Richtlinien, Abläufe und Instrumente. Deswegen ist die Sensibilisierung der Forschenden und die Vermittlung einer entsprechenden Informationskompetenz für die Implementierung von Methoden des Forschungsdatenmanagements in den Forschungsprozess essenziell. Dafür wird die Initiative, auch mit Blick auf die NFDI, Informationsmaterialien erarbeiten und auf der Projektwebseite bereitstellen, ein Trainingskonzept entwickeln ‒ welches in Form eines Workshops in die Praxis umgesetzt wird ‒ und zusätzlich das Angebot einer persönlichen Beratung installieren. Über die verschiedenen Informations- und Beratungsangebote können so gemeinsam Datenmanagementpläne für alle laufenden Projekte und Vorhaben der BBAW erstellt werden, die im Forschungsprozess durch die WissenschaftlerInnen selbst aktuell gehalten werden.
Die Strategieentwicklung ist über den Horizont der BBAW und der Akademienunion eingebettet in den Kontext der NFDI-Entwicklungen. Nach zwei Jahren Laufzeit möchte die Initiative einen nachhaltigen und langfristigen Workflow für das Management der Forschungsdaten an der BBAW bereitstellen. Die finale FDM-Strategie soll eine verbesserte Nachhaltigkeit, Verfügbarkeit, Nachnutzbarkeit und Finanzierbarkeit digitaler Arbeitsprozesse und deren Ergebnisse sicherstellen sowie deren Einbindung in die entsprechenden NFDI-Konsortien gewährleisten.
Dem hohen Stellenwert eines dynamischen Austauschs auf verschiedenen Ebenen Rechnung tragend, sollen schon im ersten Arbeitsschritt der Initiative verschiedene Beispiele aus der Praxis für das Management diverser Typen von Forschungsdaten gesammelt werden. Dazu lädt die Initiative die Teilnehmenden herzlich zur Partizipation an einer Befragung ein, um über die exemplarische Abfrage des Forschungsdatenmanagements in einzelnen wissenschaftlichen Projekten eine maximal heterogene Vielfalt an Daten aufgezeigt zu bekommen und einen Einblick in das FDM der Projekte anderer Akademien der Union zu bekommen. Auf diesem Weg sollen möglichst viele Perspektiven von Beginn an mitgedacht werden.
1 Vgl. Berlin-Brandenburgische Akademie der Wissenschaften (2019): Das Leitbild Open Science der Berlin-Brandenburgischen Akademie der Wissenschaften, [online] https://edoc.bbaw.de/frontdoor/index/index/docId/3136 [07.09.2020]; Deutsche Forschungsgemeinschaft (2019): Leitlinien zur Sicherung guter wissenschaftlicher Praxis, [online] http://doi.org/10.5281/zenodo.3923602 [07.09.2020].
2 Vgl. Wilkinson et al. (2016): The FAIR Guiding Principles for scientific data management and stewardship, in: Sci Data, Nr. 3, [online] https://doi.org/10.1038/sdata.2016.18 [07.09.2020].
12.30 Mittagspause
14.00 – 15.15 Uhr Vorträge (Chair: Ralf Wolz)
Matthias Boenig (BBAW)
Digitale Transformation: OCR-D, Angebot und Vision (Folien)
Abstract
In dem seit 2015 von der DFG geförderten Koordinierungsprojekt OCR-D wird an der Weiterentwicklung von Verfahren der Optical Character Recognition (OCR) für historische Drucke gearbeitet. Das Projektziel ist die konzeptionelle und technische Vorbereitung der automatischen Transformation von Drucken des deutschsprachigen Raums aus dem 16. bis 19. Jahrhundert in strukturierte Forschungsdaten als maschinenlesbare, elektronische Volltexte.
Vor allem wissenschaftliche Bibliotheken haben in den vergangenen Jahrzehnten umfangreiche Bestände bilddigitalisiert. Aus diesen Bilddaten können heute mit Hilfe von OCR-Verfahren automatisch durchsuchbare Volltexte generiert werden. Nachdem dieser Schritt der Massenvolltextdigitalisierung konzeptionell und technisch vom Projekt vorbereitet worden ist, wird die OCR-D-Software in den kommenden Jahren in den Bibliotheken zum Einsatz kommen.
Am Projekt OCR-D sind neben der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) die Herzog August Bibliothek Wolfenbüttel, die Staatsbibliothek zu Berlin – Preußischer Kulturbesitz, das Karlsruher Institut für Technologie (KIT) und die Bayerische Staatsbibliothek (bis 2016) beteiligt. Das Zentrum Sprache der BBAW bringt seine weitreichende Expertise und langjährigen Erfahrungen im Bereich der Volltextdigitalisierung und der Schaffung von Referenzdaten, v.a. im Deutschen Textarchiv (DTA), in das Projekt ein. Am Beispiel des DTA wird im Vortrag u. a. dargestellt, wie das Anwendungsspektrum dieses Referenzkorpus um den Bereich des maschinellen Lernens zur Verbesserung der Zeichen- und Strukturerkennung erweitert werden kann.
Dirk Goldhahn, Peter Mühleder, Franziska Naether (SAW)
Digital Humanities und wie man sie ermöglichen kann. Erfahrungen aus dem neu formierten KompetenzwerkD in Leipzig (Folien)
Abstract
Die Sicherung und Bereitstellung von Forschungsdaten sollte nicht nur einzelnen Forschenden und Projekten ein Bedürfnis sein, sondern auch ein nationales Anliegen. Daher hat der Freistaat Sachsen entschieden, ein Kompetenzzentrum mit dem Namen „KompetenzwerkD“ im Bereich der Digital Humanities und der Bewahrung des Kulturerbes ins Leben zu rufen. Diese junge Einrichtung (Start war im Februar 2020) unterstützt die sechs geisteswissenschaftlichen außeruniversitären Forschungseinrichtungen Sachsens:
* das Leibniz-Institut für Jüdische Geschichte und Kultur – Simon Dubnow (DI),
* das Leibniz-Institut für die Geschichte und Kultur des östlichen Europas (GWZO),
* das Hannah-Arendt-Institut für Totalitarismusforschung (HAIT),
* das Institut für Sächsische Geschichte und Volkskunde (ISGV),
* das Sorbische Institut (SI),
* die Sächsische Akademie der Wissenschaften (SAW).
Diese Institutionen beherbergen zahlreiche Langzeitvorhaben und Kurzzeitprojekte von Altertumswissenschaft bis Zeitgeschichte. Viele von ihnen beschäftigen sich mit digitalen Daten, beispielsweise verfügbar in Datenbanken mit Bilder, Objekten der materiellen Kultur und Texte, und stellen diese open access den Forschenden, Studierenden und der Öffentlichkeit zur Verfügung. Die technischen Voraussetzungen dafür in lokaler Infrastruktur oder Forschungsdatenmanagement variieren stark.
Ausgehend davon versucht das KompetenzwerkD, eine Strategie für die Aktivitäten in Digital Humanities in Sachsen zu erstellen, für die Akzeptanz digitaler Methoden zu sensibilisieren (open access, open source, die „FAIR“-Prinzipien), und Good-Practice-Leitfäden zu entwickeln z. B. für Forschungsdatenmanagement, Normdaten, digitale Ausstellungen, Wissenstransfer und weitere Anliegen. Ein weiteres Ziel ist es, neue Tools zu entwickeln und zu testen. In unserem Vortrag wollen wir von Erfahrungen, Potentialen und Risiken aus der ersten Phase des KompetenzwerkD berichten.
Jörg Wettlaufer (AdWG)
L(O)AD AGATE (Linked [Open] Academy Data for AGATE) (Folien)
Abstract
Das AGATE Projekt erlaubt zum ersten Mal einen zentralen Zugriff auf eine Vielzahl von Projekten der beteiligten Wissenschaftsakademien auf nationaler und prinzipiell auch europäischer Ebene. Auf der Grundlage des CERIF Datenmodells, das eine Beschreibung von Forschungseinrichtungen und ihrer Beziehungen untereinander erlaubt, können Abfragen zu einzelnen Projekten unter einer einheitlichen Oberfläche erfolgen. Ein Problem der bisherigen Implementation ist die Frage der ständigen Aktualisierung der vorgehaltenen Daten. Insbesondere Personen- und Kontaktdaten sind einer dauernden Veränderung unterworfen und bedürfen daher einer Pflege, die händisch kaum zu leisten ist. Eine zweite Herausforderung ist die Bereitstellung der eigentlichen Forschungsdaten über AGATE nach den Linked Open Data Prinzipien, die zumal auf europäischer Ebene ein besonderer Reiz wie auch eine besondere Herausforderung wären. Der Beitrag möchte über die angesprochenen Fragen in einen Dialog treten und gemeinsam mögliche Wege ausloten.
Lange, Sebastian (2020): Agate auf dem Weg nach Europa (Masterarbeit Uni Mainz)
15.30 – 16:00 Uhr Virtuelle Kaffeepause
16.00 – 17.15 Uhr Vorträge (Chair: Claes Neuenfeind)
Matt Munson (AdWHH)
Formulae – Litterae – Chartae Werkstatt (Folien)
Abstract
Das Ziel des Formulae – Litterae – Chartae Langzeitvorhaben ist es, formelhaftes Schreiben im Frühmittelalter zu erforschen. Ein wichtiger Bestandteil des Projektes ist die Erschaffung einer online Umgebung (die “Werkstatt”), die verschiedene Werkzeuge zur Erforschung von formelhaftem Schreiben anbietet. In diesem Vortrag werde ich zunächst die verschiedenen Teile der Werkstatt präsentieren und dann zeigen, wie die Leseumgebung, die Suche und die dynamische Verlinkung sowohl von internen als auch externen Quellen zusammenwirken, um vollständigere Forschung im Bereich der frühmittelalterlischen Formelhaftigkeit zu ermöglichen.
Manuel Raaf (BAdW)
Wie schwer ist FAIR? Herausforderungen und Lösungen für die Präsentation von Artikeln und Forschungsdaten bei „Bayerns Dialekte Online“. (Folien)
Abstract
Die heterogenen Daten der Dialektwörterbücher „Bayerisches Wörterbuch“, „Fränkisches Wörterbuch“ und „Dialektologisches Informationssystem von Bayerisch-Schwaben“ sowie die Belegdaten der „Bayerischen Dialektdatenbank“ werden innerhalb des Sprachinformationssystems „Bayerns Dialekte Online“ vereint. Die Homogenisierung durch ein projekteigenes XML sowie die Persistierung und die Nachnutzbarkeit der Suchanfragen bzw. des Datenbestandes werden im Vortrag skizziert. Der pragmatische Ansatz, der in der Implementierung verfolgt wurde, wird besonders hervorgehoben, um die Möglichkeit der Einfachheit bei FAIR zu illustrieren.
Torsten Schrade (AdWL-Mainz)
FAIR und NFDI (Folien)
NFDI Memorandum of Understanding (Initiatives from the Humanities and Cultural Studies, 28.9.2020)
https://www.youtube.com/watch?v=x3Cvn1vNQ98
17.30 – 18.15 Uhr Netzwerktreffen
Jörg Wettlaufer, Thomas Bode (AdWG)
Praxisnetzwerk Göttinger Digitale Akademie (Folien)
https://digitale-akademie.adw-goe.de/gda-network/
18.30 Uhr Ende und Verabschiedung
AdWG Akademie der Wissenschaften zu Göttingen
AdWL-Mainz Akademie der Wissenschaften und der Literatur | Mainz
AdWHH Akademie der Wissenschaften in Hamburg
BAdW Bayerische Akademie der Wissenschaften
BBAW Berlin-Brandenburgische Akademie der Wissenschaften
DIO Deutsche Inschriften Online
HAdW Heidelberger Akademie der Wissenschaften
AWK-NRW Nordrhein-Westfälische Akademie der Wissenschaften und der Künste
SAW Sächsische Akademie der Wissenschaften zu Leipzig