Hallo in die Runde,
ich beschäftige mich zurzeit mit dem Potential von Large Language Models zur Extraktion von Metadaten, Zitationsdaten und Named Entities aus Texten wie Artikeln und Büchern. Meine ersten Experimente haben ergeben, dass die großen kommerziellen Modelle (konkret: ChatGPT) den früheren Tools auch ohne weiteres Training himmelweit überlegen sein könnten. Neben allen möglichen anderen Problemen sind diese Modelle aber u.a. aufgrund der Kosten nicht skalierbar. Für den Einsatz und die Anpassung kleinerer, nichtkommerzieller, offener Modelle, wie sie z.B. bei https://huggingface.co/ verfügbar sind, fehlt mir aber das Praxiswissen. Ich würde mich daher dafür interessieren, ob im Kreise dieser Community Leute an ähnlichen Problemen arbeiten.
@acka47 hat mir schon eine Reihe von Tipps gegeben, die ich Euch nicht vorenthalten möchte:
- @osma@sigmoid.social, der Hauptentwickler von annif.org hat wohl schon Experimente mit LLMs zur Metadatenextraktion durchgeführt, bisher mit eher gemischten Ergebnissen.
- Bei der SWIB23 gab es einige Beiträge, z.B. „Extracting metadata from grey literature using large language models“ (Slides/Video) von Osma
@acka47 ergänze gerne, was ich vergessen habe.