FAIRe Forschungsdaten: Aufbereitung von Daten mit Hilfe von RDF-Datenmodellen

Workshopreihe "Digitales Praxislabor Geschichtswissenschaft" der AG Digitale Geschichtswissenschaft im VHD

Um Forschungsdaten FAIR (findable, accesssible, interoperable, reusable) zu machen, bietet sich an, diese als Linked Data mit RDF-Datenmodellen zu modellieren. Im Workshop wollen wir anhand von Daten aus Projekten und Altdatenbeständen der OstData-Partnerinstitute zeigen, wie Forschende mit Hilfe von RDF, semantischer Technologien und Normdaten die Aufbereitung von Forschungsdaten durchführen können.

Anhand von historischen Zensusdaten und Geodaten zu ethnischen Gruppen, werden wir zeigen, wie

  1. die Aufbereitung statistischer Daten exemplarisch mit dem RDF Data Cube Vocabulary durchgeführt werden kann,
  2. Geodaten mit Normdaten angereichert werden können, um so Orte mit Einträgen aus der GND oder Wikidata zu beschreiben und damit eindeutig zu identifizieren. Ergänzend hierzu werden wir aufzeigen, wie mit SKOS Kodierlisten, Klassifikationssysteme oder Thesauri erstellt und für die zusätzliche Anreicherung von Daten genutzt werden können.

Ziel des Workshops ist es, den Teilnehmer*innen die Relevanz der semantischen Modellierung für Verbesserung der Analyse- und Nachnutzungspotentiale derartig modellierter Daten zu vermitteln.

Termin: 24.5.2022, 9:30-12:30h

Form der Veranstaltung: virtuell

Anmeldung: Derzeit sind alle Plätze im Workshop vergeben. Gernen können Sie sich dennoch melden und wir setzen Sie auf die Warteliste: arnost.stanzel(at)bsb-muenchen.de 

Programm

9:30 – 9:45 Uhr: Einführung in den Workshop

  1. Problemstellung Modellierung von Daten für Historiker*innen
  2. Zielgruppe(n)
  3. Ziele

 

9:45 – 10:00 Uhr: Vorstellungsrunde 

  • Nennungen von bisherigen Erfahrungen, Erwartungen, Herausforderungen, etc.

 

10:00 – 10:45 Uhr: Theorie: Semantische Datenmodellierung, Normdaten und Wissensorganisationssysteme zur besseren Analyse von Daten nutzen

  1. Der Nutzen von RDF-Datenmodellierung für historische Forschung (Ontologien, Anwendungsprofile, Datenvalidierung mit SHACL)
  2. RDF Data Cube Vocabulary für statistische Daten
  3. Normdaten und kontrollierte Vokabulare mit SKOS, XKOS und SKOS-XL erstellen

 

10:45 – 11:00 Uhr: Kaffeepause

 

11:00 – 12:00 Uhr: Praxis: Tutorial Datenaufbereitung und Erstellung kontrollierter Vokabulare

  1. OstData-Leitfaden "Forschungsdaten publikationsfähig aufbereiten"
  2. Aufbereitung statistischer Daten mit dem RDF Data Cube Vocabulary
  3. Anreicherung der aufbrereiteten Daten mit Normdaten und kontrollierten Vokabularen
    • Reconciliation der Daten mit GND- und Wikidata-Einträgen
    • Kodierlisten für die Daten mit SKOS, XKOS und SKOS-XL
    • Abgleich der Kodierlisten für ethnische Gruppen in beiden Datensätzen
  4. Demonstration von Analyse-, Visualisierungs- und Nachnutzungsszenarien der FAIRifizierten Datensätze (insbesondere Interoperabilität durch Integration anhand Linked Open Data bzw. Normdaten und FAIRifizierter Kodierlisten)

 

12:00 – 12:30 Uhr: Abschlussdiskussion / Q&A 

  • Inklusive kurzer Vorstellung und/oder Diskussion eigener Daten und Modellierungsprobleme

 

Benutzte Software-Werkzeuge

  1. Karma zur Datenaufbereitung und Datenintegration: http://www.isi.edu/integration/karma/
  2. OpenRefine/OntoRefine ((OntoRefine basiert auf OpenRefine und ist Teil der GraphDB Workbench) zur Datenaufbereitung und Datenintegration: https://openrefine.org/ / https://graphdb.ontotext.com/documentation/free/loading-data-using-ontorefine.html
  3. GraphDB als RDF-/Graph-Datenbanksystem: https://graphdb.ontotext.com/

Lekutürehinweise für Teilnehmer*innen

  1. Kalampokis, Evangelos, Dimitris Zeginis, and Konstantinos Tarabanis (2019). “On modeling linked open statistical data”. In: Web Semantics: Science, Services and Agents on the World Wide Web 55, S. 56–68. DOI: https://doi.org/10.1016/j.websem.2018.11.002
  2. Zapilko, Benjamin and Brigitte Mathiak (2011). “Performing Statistical Methods on Linked Data”. In: Proceedings of the 2011 International Conference on Dublin Core and Metadata Applications. DCMI’11. Dublin Core Metadata Initiative, S. 116–125. URL: https://dcpapers.dublincore.org/pubs/article/view/3627.html
  3. Meroño-Peñuela, Albert and Ashkan Ashkpour (2016). “Historical Quantitative Reasoning on the Web”. In: European Social Science History Conference (ESSHC).
  4. Zaytseva, Ksenia (2020). Controlled Vocabularies and SKOS. DARIAH-CAMPUS. URL: https://campus.dariah.eu/resource/posts/controlled-vocabularies-and-skos