Die neunte und zugleich letzte Veranstaltung in diesem Modul drehte sich hauptsächlich um das Thema „Linked Data“, welches bereits in einigen anderen Modulen thematisiert wurde. Damals war dies im Zusammenhang mit semantischen Technologien. Ich war nun sehr gespannt, ob dies nun ebenfalls der Fall sein würde oder ob wir eine neue Sichtweise präsentiert bekämen. Die Antwort auf diese Frage gebe ich euch in diesem Beitrag.

Bevor das Thema Linked Data jedoch vertieft wurde, standen noch einige andere Aspekte auf dem Programm. Neben einer Unterrichtsevaluation wurde nochmals auf das Thema der letzten Vorlesung, Suchmaschinen und Discovery-Systeme, eingegangen. Hierzu wurde einerseits auf die Unterschiede zwischen vertikalen und horizontalen Suchmaschinen eingegangen. Der Hauptunterschied ist der Nutzungskontext bzw. die Art der Datenbestände. So kommen horizontale Suchmaschinen bei heterogenen Datenbeständen, welche kein Datenschema benötigen, zum Zuge, während vertikale Suchmaschinen bei homogenen Datenbeständen, mit Datenschema, eingesetzt werden. Bibliotheks- und Archivkataloge verfügen in der Regel über eine vertikale Suchmaschine. Obwohl wir uns im Modul „Information Retrieval“ bereits mit Suchmaschinen auseinandergesetzt hatten, war dies für mich neu. Weiter wurde uns ein Marktüberblick zu den Discovery-Systemen gegeben. So gibt es auf internationaler Ebene eine äusserst breite Auswahl an Angeboten, sowohl was kommerzielle, aber auch nicht- kommerzielle Software betrifft. Bei den kommerzielen Softwareangeboten ist Primo von Ex Libris Marktführer. Auch in der Schweiz setzt SLSP auf Primo. Bei den nicht-kommerziellen Softwareangeboten ist VuFind das beliebteste Angebot.

Danach stellten uns die beiden Dozierenden zwei Projekte aus ihrem Arbeitsalltag vor. Dieser pragmatische Einblick fand ich noch spannend. Beim ersten Projekt geht es um die Entwicklung eines neuen Online-Katalogs für das deutsche Literaturarchiv Marbach. Laut Angaben auf der Projektwebsite soll dieser „die qualitativ hochwertige Erschliessung für verschiedene Zielgruppen“, sowie „den Zugang zu Magazin und digitalem Bestand des DLA“ ermöglichen. Bei der Entwicklung wird zudem grosser Wert auf die Usability gelegt und auch entsprechende Methoden verwendet, was mich natürlich sehr erfreute. Das zweite Projekt dreht sich um die Datenintegration für das Portal „noah.nrw“, ein Portal, welches verschiedene Open-Access-Datenbestände von Hochschulen des Bundeslandes Nordrhein-Westfalen zentral verfügbar machen soll. Hierzu müssen die Daten, wie im Unterricht gelernt, per OAI-PMH-Schnittstelle abgerufen und konvertiert werden, damit diese dann im Portal dargestellt und der Bestand durchsuchbar gemacht werden kann.

Nun kamen wir zum Thema Linked Data. Dabei wurden uns zwei neue Datenmodelle vorgestellt: BIBFRAME und Records in Context (RiC). BIBFRAME ist ein Standard für Bibliotheken, welcher den Linked Data-Paradigmen folgt. Konkret besteht dieser aus dem Model und dem Vocabulary. Folgendes Bild stellt das Model, welches aus drei Ebenen besteht, gut dar:

image

Das Vocabulary bzw. die Ontologie fusst auf RDA und kennt sowohl Klassen, als auch Eigenschaften. Mit RDA und weiteren semantischen Technologien kannte ich mich bereits gut aus, jedoch nur in der Theorie. Von dem her fand ich diesen Praxiseinblick noch gut. Das zweite Modell, RiC, basiert ebenfalls auf den Linked Data-Prinzipien und ist auf Archive zugeschnitten. Auch dieses beinhaltet ein Model, sowie ein Ontologie-Vokabular. Dieses ist ähnlich aufgebaut wie diverse Ontologien, welche bereits vom Studium her bekannt waren.

Alles in allem lässt sich konstatieren, dass von der Theorie her bereits vieles bekannt war, jedoch die praktische Umsetzung neu war.

So, dass war es (fast) mit meiner Blogserie. Im Anschluss folgt noch ein Artikel darüber, was ich in diesem Kurs (nicht) gelernt habe.