Der achte Vorlesungstag brachte ein neues Thema mit sich: Suchmaschinen und Discovery-Systeme. Als Vorbereitung auf diese Veranstaltung habe ich bereits die Software «VuFind» auf meiner virtuellen Maschine installiert, sowie bereits etwas erkundet. Ausserdem durfte ich bereits einige Konfigurationen, im Rahmen der Hausaufgabe, kennenlernen. Nun war also der Zeitpunkt gekommen, tiefer in die Materie einzutauchen. Wie dies vonstattenging, erfahrt ihr in diesem Text.

Neben dem obligaten Kommentar zu den Lerntagebüchern gab es zu Beginn noch eine Ergänzung zur OAI-PMH-Schnittstelle. So gab es einige Unklarheiten, ob diese selektive Abfragen von Daten ermöglicht. Die Antwort auf diese Frage lautet, dass man die gewünschten Ergebnisse nach Änderungsdatum und Sets filtern kann. Dies sind jedoch die beiden einzigen Filtermöglichkeiten. Hier kommt es darauf an, wie man den Begriff «selektive Abfragen» gebraucht. In Fachkreisen würde man OAI-PMH wohl nicht als selektive Schnittstelle bezeichnen. Die Dozierenden führten uns anschliessend eine Auswahl an selektiven Schnittstellen vor.

Danach gab es einen etwas längeren Nachtrag zum letzten Thema «Metadaten modellieren und Schnittstellen nutzen». Zum einen wurde nochmals auf das Datentransformations-Tool OpenRefine eingegangen, zum anderen wurden alternative Softwaremöglichkeiten präsentiert. Danach wurde eine weitere Möglichkeit, wie man Metadaten abrufen kann, gezeigt, nämlich JSON-APIs. Aus dem Modul «Webprogrammierung» wusste ich bereits was eine API-Schnittstelle, ist, wie auch, für was JSON (JavaScript Object Notation) steht. Bei einem Projekt haben wir damals eine Abfrage an eine API gestellt und ebenfalls eine JSON-Datei zurückerhalten. Wie man jedoch Metadaten abrufen kann, wusste ich noch nicht. Als Beispiel für eine solche API wurde uns «lobid-gnd» gezeigt. Diese API beinhaltet alle Daten der Gemeinsamen Normdatei (GND) in aufbereiteter Form. Lobid-gnd zeigt sehr schön, wie ich finde, wie man den Suchstring ändern muss, je nachdem welche Daten man möchte. Zudem bietet die API weitere Funktionalitäten, wie beispielsweise eine Autovervollständigung bei der Suche, an. Als möglicher Endpoint für eine solche API wurde uns der Dienst «scrAPIr» vorgestellt, welcher es erlaubt, die Daten darzustellen, was gerade für die weitere Programmierung sehr hilfreich sein kann.

Anschliessend ging es mit dem Hauptthema dieser Vorlesung weiter. Wie bereits beschrieben hat die Installation von VuFind gut funktioniert. VuFind ist, gemäss eigenen Angaben, eine Software, welche für Bibliotheken entwickelt wurde und zum Ziel hat, «to enable your users to search and browse through all of your library’s resources». Der Suchindex, auf welchem VuFind basiert, ist Solr. Solr ist, gemeinsam mit Elasticsearch, der wohl am häufigsten eingesetzte Suchindex überhaupt. Anhand einer ersten Übung haben wir verglichen, wie sich die Suche auf Solr von jener auf VuFind unterscheiden. Die Resultate der Beispielssuche waren beiden die gleichen. Unterschiede gab es in der Darstellung der Ergebnisse, wobei die Darstellung von VuFind einen geordneteren Eindruck hinterliess, als jene von Solr.

Die grosse Übung dieses Mal, war die Datenintegration der in den vorherigen Lektionen erstellten Daten aus Koha, ArchivesSpace, DSpace und DOAJ in VuFind. Dabei musste man jede Dateiquelle einzeln importieren. Um dies zu bewerkstelligen, musste man die Dateien, vor dem Import, einer Collection zuweisen. Anschliessend musste man noch ein Importskript starten und die Dateien waren bereits importiert. Das Resultat war nun ein Katalog der importierten Daten auf VuFind. Ich habe diese Übung nach der Vorlesung durchgeführt, nach einigen Anlaufschwierigkeiten, hauptsächlich im Umgang mit der Shell, hatte ich den Dreh raus und konnte die Übung erfolgreich durchführen.

Das war es für heute von meiner Seite, ich hoffe ihr fandet meinen Bericht interessant und wir sehen uns beim nächsten Mal wieder!