Herzlich willkommen im metadaten.community-Forum, Ralph, und danke für deine Anfrage!
Sehr schön. Wie ich unter arthistoricum.net: Datenquellen sehe ist lobid eine von vielen Quellen für arthistoricum.net. Aus reiner Neugierde: habt ihr irgendwo euer Tooling und eure Workflows für das Harvesten, Transformieren und Indexieren beschrieben?
Ich sehe momentan keine einfachere Möglichkeit. Sowas ginge gut mit einem SPARQL-Endpoint, den wir aber nicht anbieten (siehe auch SPARQL-Endpoints). Ich denke aber, dass die vierzigtausend zusätzlichen Abfragen kein Problem für die API sind. Wenn ihr euch an das Rate Limiting haltet, habt ihr die Daten in weniger als sieben Minuten geholt. Wie häufig holt ihr denn die Daten ab?
Unter Umständen sollten wir darüber nachdenken, bei der Transformation von MARC zum lobid-JSON-LD eine inCollection
-Angabe für Arthistoricum zu ergänzen. Dann könntet ihr euch die gesamten Daten mit einer einfachen Query holen. @TobiasNx, wäre das leicht umsetzbar, so eine Angabe für alle Bestände von DE-38-428, DE-38-445 und DE-Kn3 plus die in isPartof.hasSuperordinate.id
verlinkten Ressourcen zu ergänzen oder ist es auch beim ETL problematisch, die Überordnungen mit zu berücksichtigen?