Digitale Archivierung und Bereitstellung von AV-Medien -  - E-Book

Digitale Archivierung und Bereitstellung von AV-Medien E-Book

0,0

Beschreibung

Die vorliegende Publikation verfolgt die Ziele, ein möglichst allgemeingültiges Anforderungsprofil für einen zentralen Medienserver zu erarbeiten und dieses Anforderungsprofil dann dem Leistungsumfang von mehreren am Markt befindlichen Software-Lösungen gegenüberzustellen. Für die Sammlung und den Austausch der Erfahrungen wurde eine österreichweite, übergreifende Arbeitsgruppe gebildet. Die Ergebnisse der Arbeitsgruppe finden sich in der vorliegenden Publikation veröffentlicht, welche als Handreichung die Anschaffung und Implementierung von Medienservern an Hochschulen unterstützen soll.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 159

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Inhalt

Vorwort des fnm-austria-Präsidiums

Editorial

Einführung in die Archivierung

1.1. Von der Aufnahme bis zur Distribution – ein Überblick

1.2. Speichern reicht nicht...

1.3. Wie soll alles gespeichert werden?

1.4. Gesetzliche Rahmenbedingungen im Kontext der Archivierung

Didaktische Einsatzszenarien

2.1. Einleitung

2.2. Szenario TC – Teacher in Classroom

2.3. Szenario MC – Mobile Classroom

2.4. Szenario FC – Flipped Classroom

2.5. Szenario SC – Student in Classroom

2.6. Szenario LC – Live in Classroom

2.7. Szenario OC – Off the Classroom

Beispiele aus der Praxis verschiedener Hochschulen

3.1. Szenarien bestehender Archivsysteme aus der Praxis

3.2. Medienarchivierung an der TU Wien

3.3. GAMS und das Podcast-Portal der Universität Graz

3.4. Medienarchiv der Universität Wien

3.5. Medienplattform der Hochschule für Agrar- und Umweltpädagogik Wien

3.6. Die Verwaltung und Integration von audiovisuellen Medien an der Wirtschaftsuniversität Wien

Softwarebeispiele aus der Praxis

4.1. Software für die Archivierung – ein Kriterienkatalog

4.2. Opencast

4.3. VIMP inkl. Web-Hosting für den Portal-Betrieb

4.4. Wowza Streaming Engine

4.5. Plex Media Server

4.6. TechSmith Relay und Camtasia

4.7. Phaidra

4.8. OpenACS / Learn@WU

Checklisten für die Installation eines Medienservers

5.1. Checkliste für die Vorbereitung und Umsetzung eines Medienserver-Projektes

5.2. Evaluation

5.3. Konzeption

5.4. Integrations- und Testphase

5.5. Einführung

5.6. Betrieb

Anhang

Verzeichnis der Autorinnen und Autoren

Vorwort des fnm-austria-Präsidiums

„Der Verein Forum neue Medien in der Lehre Austria bietet als etablierte Interessenvertretung ein lebendiges Netzwerk sowie die Entwicklung und Verbreitung von institutionsübergreifenden Maßnahmen und Modellen im Bereich der (technologiegestützten) Bildungsangebote.“

Basierend auf diesem Mission Statement fördert der Verein bereits seit mehreren Jahren Projekte seiner Mitglieder, die sich in den Bereichen Qualität, Hochschuldidaktik und/oder Technologie neuen Aspekten von Lehren und Lernen im Kontext „Neue Medien“ widmen. Durch gezielte Projektvergaben unterstützt der Verein die hochschulübergreifende Vernetzung von Expertinnen und Experten sowie die Bündelung von fachspezifischem Know-how, das nach Projektende allen Mitgliedern in Form von Publikationen zur Verfügung gestellt wird.

Die vorliegende Publikation beschäftigt sich mit der zentralen Archivierung und Bereitstellung von audiovisuellen Lehrmaterialien an Hochschulen in Form eines Medienservers. Sie beinhaltet die Darstellung von Anforderungsprofilen an einen solchen Medienserver sowie die Beschreibung von bereits im Einsatz befindlichen Systemen. Die Publikation dient damit allen Hochschulen, die eine zentrale Archivierung und Bereitstellung von Videomaterial für die Lehre planen, gleichermaßen als wichtige Informationsquelle und wertvolle Entscheidungshilfe.

Unter der Leitung der Pädagogischen Hochschule Wien waren insgesamt zehn österreichische Hochschulen am Projekt beteiligt. Der Verein bedankt sich bei allen Autorinnen und Autoren sowie den vielen Helferinnen und Helfern im Hintergrund, die eine solche Publikation überhaupt erst ermöglichen.

Ihnen, liebe Leserinnen und Leser, wünschen wir eine interessante Lektüre und hoffen, dass Sie durch die Publikation angeregt werden, auch selbst einmal ein Förderprojekt beim Verein einzureichen.

Martin Ebner & Hans-Peter Steinbacher

Präsidenten des Vereins „Forum neue Medien in der Lehre Austria“

Editorial

Christian Berger

An den österreichischen Hochschulen1 gewinnt die Digitalisierung immer größere Bedeutung. Das Streaming und die Aufzeichnung von (Lehr-)Veranstaltungen sowie die audiovisuelle Aufbereitung von Lehrinhalten entsprechen dem Bedürfnis der Studierenden nach größerer zeitlicher und örtlicher Flexibilität und unterstützen sie bei der Nachbereitung des Lehrstoffs und bei der Vorbereitung auf Prüfungen.

Viele Hochschulen bieten mittlerweile Aufzeichnungen in unterschiedlicher Form an, wobei die angefertigten Medienproduktionen selten systematisch und noch seltener automatisch archiviert werden. Bei der Speicherung fehlen häufig Archivstandards, sie erfolgt oft dezentral, ohne ausreichende Beschlagwortung und ohne klare Lizenzierungen, wodurch der Zugang und die (Weiter-) Verwendung der Videos entsprechend erschwert werden. Diesem Umstand kann mit dem Betrieb eines zentralen Medienservers begegnet werden, auf dem unter Berücksichtigung der Bedürfnisse der Lehrenden (v. a. beim Erstellen und gezielten Freigeben der Videos an spezifische Zielgruppen) und der Studierenden (v. a. hinsichtlich des leichten Auffindens und der rechtlich unbedenklichen Verwendung der Videos) audiovisuelle Lehrmaterialien zentral abgelegt werden.

Die zentrale Archivierung und Bereitstellung von audiovisuellen Lehrmaterialien stellt für österreichische Hochschulen eine zunehmende Herausforderung dar. Aufgezeichnete (Lehr-)Veranstaltungen und audiovisuell aufbereitete Lehrmaterialien können nur mit Hilfe einer zentralen Infrastruktur effizient und lehrenden- wie lernendenorientiert verwaltet werden. Die vorliegende Publikation verfolgt die Ziele, ein möglichst allgemeingültiges Anforderungsprofil für einen zentralen Medienserver zu erarbeiten und dieses Anforderungsprofil dann dem Leistungsumfang von mehreren am Markt befindlichen Software-Lösungen gegenüberzustellen.

Für die Sammlung und den Austausch der Erfahrungen wurde eine österreichweite, übergreifende Arbeitsgruppe gebildet, die dankenswerterweise vom Verein „Forum neue Medien in der Lehre Austria“ im Rahmen des Projektes „ZABALAS“ (Zentrale Archivierung und Bereitstellung von audiovisuellen Lehrmaterialien – Anforderungsprofil und Systemvergleich) finanziell unterstützt wurde. Die Ergebnisse der Arbeitsgruppe finden sich in der vorliegenden Publikation veröffentlicht, welche als Handreichung die Anschaffung und Implementierung von Medienservern an Hochschulen unterstützen soll.

In der Arbeitsgruppe waren folgende Hochschulen durch Expertinnen und Experten vertreten:

Fachhochschule Kufstein Tirol – E-Learning Competence Center

Fachhochschule Salzburg – eLearning Didaktik / Information Services

Hochschule für Agrar- und Umweltpädagogik Wien – Institut für Beratung, Entwicklungsmanagement und E-Learning / E-Didaktik

Johannes Kepler Universität Linz – Informationsmanagement

Pädagogische Hochschule Wien – Zentrum für Lerntechnologie und Innovation (ZLI)

Technische Universität Wien – Teaching Support Center (TSC)

Universität Graz – Akademie für Neue Medien und Wissenstransfer (ANMW)

Universität Wien – Center for Teaching and Learning (CTL)

Universität Wien – Zentraler Informatikdienst (ZID)

Universität für Bodenkultur Wien – E-Learning und Didaktik

Universität Innsbruck – Zentraler Informatikdienst (ZID) – Neue Medien und Lerntechnologien

Wirtschaftsuniversität Wien (WU) – Wirtschaftsinformatik und Neue Medien

Die Basis für diese Publikation bilden bisherige Erkenntnisse und Erfahrungen, die die Mitglieder der Arbeitsgruppe „ZABALAS“ an ihren Hochschulen bei der Planung bzw. bei ersten Umsetzungsschritten eines solchen Medienservers gesammelt haben.

Im ersten Kapitel werden grundlegende Überlegungen zur Archivierung dargestellt. Archivierung ist ein komplexer Prozess, der unterschiedliche Aspekte beinhaltet.

Raman Ganguly gibt im ersten Beitrag einen Überblick von der Aufnahme bis zur Distribution und beschreibt zur besseren Verständlichkeit ein 4-Phasen-Modell für den Workflow. Um abgelegte Daten wieder zu finden, bedarf es der systematischen Eingabe von Metadaten. Dies erläutert Ganguly im zweiten Beitrag. Ebenso wichtig ist es, bereits von Beginn an die technischen Formate zu beachten. Ganguly erklärt die Vor- bzw. Nachteile verschiedener audio-visueller Formate.

Christian Berger verweist in seinem Beitrag auf die für die Archivierung relevanten gesetzlichen Rahmenbedingungen.

Die Mediathek ist das audio-visuelle Archiv der Republik Österreich. In einem Interview erläutert Hermann Lewetz, langjähriger Leiter der technischen Abteilung der Mediathek, seine Erfahrungen bei der Langzeitarchivierung. Auch wenn das Ziel der Aufbewahrung von audio-visuellen Werken „für die Ewigkeit plus einen Tag“ nur selten für die Arbeit an der Hochschule gültig ist, finden sich im Gespräch zahlreiche grundsätzliche und technische Überlegungen zum Thema „Archivierung“. Das Gespräch wurde von Raman Ganguly und Christian Berger geführt.

Wesentlich für den Hochschulbetrieb sind die didaktischen Überlegungen, die Klaus Himpsl-Gutermann, Elfriede Berger, Sylvia Lingo, Hans-Peter Steinbacher und Franz Reichl im zweiten Kapitel darlegen. Archivierung von AV-Materialien ist kein Selbstzweck, sondern Teil eines hochschuldidaktischen Konzeptes. Die Autorinnen und Autoren beschreiben daher grundlegende didaktische Modelle und präsentieren konkrete didaktische Einsatzszenarien an ihren Hochschulen.

Neben den didaktischen Überlegungen stehen bei der Anschaffung und dem Betrieb eines Medienarchives auch technische Überlegungen an. Die technische Entwicklung schreitet bekannterweise rasch voran, und damit werden technische Beschreibungen schnell einmal unaktuell. Die Autorin bzw. die Autoren Franz Reichl, Gergely Rakoczi, Andreas Krieger, Michael Raunig, Raman Ganguly, Markus Hintermayer, Markus Moser und Sonja Fischbacher haben dennoch die derzeit an ihren Hochschulen bestehenden Medienarchivsysteme beschrieben. Im anschließenden Kapitel finden sich dann noch detailliertere Beschreibungen der verwendeten Software auf Basis eines Kriterienkataloges von Robert Kern, Sonja Fischbacher, Anton Tremetzberger, Raman Ganguly, Markus Hintermayer, Martin Schamberger, Andreas Krieger, Markus Moser und Ralf Hauber. Diese Übersicht wendet sich vorrangig an technisch versierte Leser/innen und dient IT-Abteilungen zur Orientierung.

Im letzten Teil haben Markus Hintermayer, Michael Kopp und Hans-Peter Steinbacher die gesammelten Erkenntnisse der Arbeitsgruppe in mehreren Checklisten zusammengestellt. Diese richten sich an Didaktiker/innen, das Management sowie die IT-Abteilungen der Hochschulen und sollen bei der Anschaffung und Implementierung als Orientierungshilfen dienen.

Das Herausgeberteam bedankt sich bei allen, die am Projekt beteiligt waren, sehr herzlich für deren Mitarbeit. Nochmals recht herzlich gedankt sei dem Verein „Forum neue Medien in der Lehre Austria“ für die Unterstützung des Projektes. Die Herausgeberin / die Herausgeber hoffen, mit der vorliegenden Publikation eine für die Leser/innen hilfreiche Handreichung erstellt zu haben. Die Beiträge stehen seitens der Autorinnen und Autoren unter einer Creative-Commons-Lizenz bei Namensnennung frei zur Verfügung und können gerne unter gleichen Bedingungen weiter distribuiert werden.

Der Beitrag dieser Publikation ist unter folgender Lizenz zur Nutzung freigegeben:

Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Österreich Lizenz.

1In dieser Publikation wird „Hochschulen“ als Oberbegriff für alle Einrichtungen des tertiären Bildungssektors verwendet.

1. Einführung in die Archivierung

1.1. Von der Aufnahme bis zur Distribution – ein Überblick

Raman Ganguly

Die Produktion von AV-Medien ist aufwendig und sollte nach Möglichkeit mehrfach über einen längeren Zeitraum distribuiert werden. Zwischen der Produktion und der Nutzung bzw. Nachnutzung steht die Archivierung der Daten.

Datenarchivierung bedeutet mehr als nur die dauerhafte Sicherung von Daten. Ein wesentlicher Teil ist die Organisation der Daten, damit diese über einen längeren Zeitraum gefunden und nachgenutzt werden können. Damit lässt sich das kulturelle Erbe im informationstechnologischen Zeitalter bewahren, ohne dass die Archivierung zu einem Selbstzweck entartet, bei dem es bloß darum geht, alle Daten möglichst lange aufzuheben.

Bei der Datenarchivierung sind verschiedenste Parteien beteiligt, die zu unterschiedlichen Teilen Verantwortung tragen und unterschiedliche Rollen einnehmen (Corti 2014: 29). Um den Prozess der Datenarchivierung besser darzustellen, wurde an der Universität Wien ein Workflow-Modell für die Archivierung von Daten entwickelt und im Rahmen des Projekts „e-Infrastructures Austria“2 öffentlich diskutiert (Budroni 2015: 201ff).

Basis für das Workflow-Modell ist das OAIS-Modell (ISO-Standard für die Datenarchivierung) (Wikipedia OAIS). Das OAIS-Modell geht in seinem Modell des Umfelds von Rollen eines Produzenten, eines Daten-Managements und eines Konsumenten aus (CCSDS 2012). Im Workflow-Modell werden vier Schritte unterschieden, die von den Rolles des OAIS-Modells durchgeführt werden. Die beiden Modelle ergänzen sich, wobei das Workflow-Modell aus der Praxis von Support und Betrieb von Archivsystemen abgeleitet wurde.

Die Daten werden in allen Modellen für die Archivierung angereichert und werden zu Digitalen Objekten. Digitale Objekte aus Sicht der Archivierung bestehen aus mehr als nur den Daten selbst. Sie werden durch folgende Elemente angereichert: Metadaten zur Beschreibung, Owner zur Identifizierung des Rechteinhabers, eine Lizenz, die die Regelung für die Nachnutzung klärt, und einen Persistent Identifier, der das Digitale Objekt im Netz auffindbar macht. Im OAIS-Modell werden die Daten als Informations Package (IP) bezeichnet und sind die zentralen Komponenten. Das IP besteht aus den Daten und zusätzlichen Informationen für das Daten-Management. Es gibt drei Unterscheidungen bei den Packages: Submission Information Packages (SIP), das beim Einlagern im Archiv (Ingest) erstellt wird. Im Archiv selbst werden diese SIP durch Metainformationen ergänzt und zu Archival Information Packages (AIP) umgeformt. Für die Nachnutzung werden die Dissemination Information Packages (DIP) erzeugt (Brübach: 7f).

Workflow-Modell in vier Phasen

Das Vier-Phasen-Modell beschreibt den Prozess, wie Digitale Objekte in ein Archiv kommen und zur Nachnutzung wieder aus dem Archiv genommen werden können. Neben den Phasen ist ein gemeinsamer Rechtsraum ein wesentliches Element. Es soll über Nutzungsbedingungen und Lizenzen (aus rechtlicher Sicht) eindeutig geklärt sein, was mit den Digitalen Objekten geschehen darf, die aus dem Archiv für die Nachnutzung genommen werden. Beim Datenmanagement ist oft mehr als nur ein System beteiligt, daher ist eine Art „Schengenraum für Daten“ innerhalb einer Organisation wünschenswert. In der Abbildung 1 wird dieser Raum mit dem beschrifteten Viereck „Gemeinsamer Rechtsraum“ angedeutet.

Abb. 1: Vier-Phasen-Workflow-Modell

Phase 1: Pre-Ingest

In dieser Phase werden die Daten erzeugt. Es gibt noch wenige Berührungspunkte zur Infrastruktur des Daten-Managements, in dem die Daten dauerhaft bereitgestellt werden. Es soll die bestmögliche Qualität der Daten erzeugt werden und nur wenig Rücksicht auf das eigentliche Management genommen werden. Die Qualität der Erzeugung und nicht die Qualität der Archivierung ist im Fokus.

Es macht aber auch aus technischer Sicht durchaus Sinn, möglichst früh eingebunden zu werden, da es zum Teil notwendig ist, auch die Methode der Datengenerierung und/oder Software, die zum Erzeugen oder Sammeln der Daten verwendet wird, zu archivieren. Diese Abhängigkeiten sollten zu Beginn der Datenerhebung geklärt werden.

Frühzeitige Beratung kann auch den späteren Ingest erleichtern, da oft die Daten unterschiedlich in gleicher Qualität erzeugt werden können. Manche Wege sind einer späteren Aufbewahrung dienlicher als andere. Auch können die Produzentinnen und Produzenten hier bereits auf gesammelte Erfahrung des Data-Management zurückgreifen.

Phase 2: Ingest

Beim Ingest erfolgt die Übergabe der Daten an das Repository-Management. Bei der Übergabe sind Konvertierungen notwendig, um eine dauerhafte Archivierung zu garantieren. Diese Konvertierungen können rein technischer Natur sein, wie zum Beispiel die Konvertierung der Formate. Aus nicht-technischer Sicht werden die Rechte der Archivierung und Nachnutzung sowie die Metadaten geklärt.

Phase 3: Management

Hier handelt es sich um die zentrale Phase aus Sicht des Data-Managements. Die Daten werden in dieser Phase in der Qualität, in der sie beim Ingest angenommen wurden, über eine bestimmte Dauer (von der Produzentin / vom Produzenten bestimmt) einem bestimmen Benutzerkreis zur Verfügung gestellt. Die Dauer kann im Sinne der Langzeitarchivierung auch unbestimmt sein. Der Benutzerkreis umfasst bei Open Access die gesamte Öffentlichkeit und kann nach Bedarf beschränkt werden.

Phase 4: Re-Use

In der Re-Use-Phase werden die Daten an die autorisierten Benutzer/innen übergeben. Diese ist die wichtigste der vier Phasen, da sie dem gesamten Research-Data-Management Sinn verleiht. Die Übergabe ist ähnlich wie bei der Übergabe zum Repository-Management, es ist eine enge Zusammenarbeit mit den Nutzerinnen und Nutzern notwendig. Hier gibt es aber den Unterschied, dass speziell im Bereich Citizen Science3 oder Open Science4 die Nutzerin / der Nutzer keinen direkten Kontakt mit dem Repository-Management hat. Daher sind Applikationen, die an die Bedürfnisse zur Nachnutzung angepasst sind, notwendig.

Data Management Plan

Der Pfeil mit der Beschriftung DMP in der Abbildung 1 steht für Data Management Plan und beschreibt eine Art Projektplan für Daten. Es soll schon frühzeitig geplant werden, welche Daten für wie lange und zu welchem Zweck archiviert werden. Der DMP hilft einerseits einen Kostenplan für die Archivierung zu erstellen und andererseits auch die Kosten zu optimieren, da nicht alle Daten für die Ewigkeit aufbewahrt werden müssen. Die laufenden Kosten entstehen bei der Archivierung vorwiegend aus folgenden Komponenten: Dauer der Archivierung, Komplexität der Datenformate, die archiviert werden, und Größe der Daten.

Literaturverzeichnis

Budroni, Paolo und Ganguly, Raman: e-Infrastructures Austria: eine Referenzarchitektur zur dauerhaften Bereitstellung von Daten aus der Forschung als Aufgabe für wissenschaftliche Bibliotheken, in: Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen & Bibliothekare, 2015, 68, 2, [online] http://eprints.rclis.org/28113/, http://phaidra.univie.ac.at/o:406866

Borghoff, Uwe M., Rödig, Peter, Scheffczyk, Jan und Schmitz, Lothar (2003): Langzeitarchivierung: Methoden zur Erhaltung digitaler Dokumente, Heidelberg:dpunkt.

The Consultative Committee for Space Data System Practices (CCSDS): Reference Model for an Open Archival Information System (OAIS): Magenta Book, June 2012, CCSDS 650.0-M-2, [online] https://public.ccsds.org/pubs/650x0m2.pdf

Brübach, Nils (o. J.): Das Referenzmodell OAIS, in: A. Neuroth, R. Oßwald, S. Scheffel, S. Strathmann und K. Huth (Hrg.), nestor Handbuch – Eine kleine Enzyklopädie der digitalen Langzeitarchivierung, [online] http://nestor.sub.uni-goettingen.de/handbuch/artikel/nestor_handbuch_artikel_438.pdf, http://nestor.sub.uni-goettingen.de/handbuch/nestorhandbuch_23.pdf

Corti, Louise, Eynden, Veerle Van den, Libby, Bishop und Woollard, Matthew (2014): Managing and Sharing Research Data: A Guide to Good Practice, UK: Sage.

Wikipedia OAIS: Open Archival Information System ist ein Referenzmodell für Archivinformationssysteme, wurde als ISO 14721:2012 veröffentlicht, [online] https://de.wikipedia.org/wiki/OAIS [17.02.2017].

Der Beitrag dieser Publikation ist unter folgender Lizenz zur Nutzung freigegeben:

Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Österreich Lizenz.

1.2. Speichern reicht nicht...

Raman Ganguly

Werden Daten einfach auf einem Storagesystem verwaltet, gehen Informationen verloren, die für ein späteres Auffinden und die Verwendung relevant sind. Das Ziel bei der Archivierung von Daten ist immer die Nachnutzung, damit Archivierung nicht zum Selbstzweck wird. Bei der Fülle an Daten, die über das Internet abrufbar sind, wird das Auffinden der richtigen Daten immer wichtiger. Eine gute Beschreibung der Daten ist daher ein wesentlicher Punkt bei der Archivierung. Die Metadaten, wörtlich Daten über Daten (Baca 2008: 1), beschreiben Inhalt und Format der Daten und sind ein grundlegender Bestandteil eines digitalen Objekts.

Metadaten sind Daten über Daten: Grundsätzlich sind es kontextuelle Angaben über den Inhalt, die sehr intensiv im Bibliothekswesen verwendet werden (Schmidt 2003: 151). In den Bibliotheken werden sie in den Katalogen verwendet und nach bestimmten Regeln strukturiert. Die Regelwerke werden als Metadatenstandards bezeichnet und dienen nicht nur zur Beschreibung von digitalen Objekten, sondern auch von realen (Zeng und Qin 2008: 8ff). Es gibt eine Vielzahl an Metadatenstandards, die aus unterschiedlichen Disziplinen und nicht nur aus dem Bibliotheksumfeld stammen und in ihrer Beschreibung unterschiedlichen Anforderungen dienen (Zeng und Qin 2008: 15). Daher sind diese Standards nicht interoperabel und haben daher einen großen Nachteil für Suchmaschinen, auch wenn sie in einem Format, das von Maschinen verstanden wird, zur Verfügung gestellt werden.

Der Standard Dublin Core (DC) versucht mit einem reduzierten Set von 15 Elementen eine Möglichkeit zum inter- und transdisziplinären Austausch von Metadaten zu schaffen (Kunze und Banker 2007). Die Organisation DCMI (Dublin Core Metadata Initiative) strebt einen hohen Grad an Interoperabilität an und definiert vier Levels. Dabei werden vor allem Datenmodelle zum Austausch der Metadaten für Maschinen berücksichtigt. Ein Datenmodell ist das RDF (Resource Description Framework; W3C RDF) Graphenmodell, das auch Linked Open Data unterstützt5 (Miguel-Ángel et al. 2016: 15). Das RDF- Modell6 ist ein Konzept, um Webressourcen über ein Tripel von Subjekt, Prädikat und Objekt miteinander zu verbinden7 (W3C RDFCONCEPTS).

Es stellt sich die Frage, ob Suchmaschinen auch in Zukunft mit dem Wachstum von Daten mithalten und ob überhaupt noch relevante Inhalte gefunden werden können (Baca 2008: 27). Das World Wide Web Consortium (W3C) setzt auf das Semantic Web und Ontologien zur Verknüpfung von Informationseinheiten (W3C OWL). Auch hier wird das RDF-Modell verwendet, um die Ontologien mit den Inhalten zu verknüpfen.

Bei der Auswahl eines Archivsystems ist darauf Rücksicht zu nehmen, dass nicht nur Metadaten vergeben werden können, sondern dass diese auch mit anderen Maschinen austauschbar sind. Werden Systeme verwendet, die auf RDF-Datenmodelle zurückgreifen, können Teile der Metadatenverwaltung aus einem Archivsystem genommen werden, was die Komplexität einzelner Systeme reduziert und das Daten-Management flexibler gestaltet. So kann zum Beispiel ein Klassifikationsserver eingesetzt werden, der Ontologien verwaltet und diese mit den digitalen Objekten in einem Archivsystem verknüpft (Kopácsi et al. 2016: 217).

Literaturverzeichnis

Baca, Murtha (Hrsg.) (2008): Introduction to Metadata, 2. Auflage, Los Angeles, CA: The Getty Research Institute Publish Program.

Kopácsi, Sándor, Preza, José Luis und Hudak, Rastislav (2016): Development of a Classification Server to Support Metadata Harmonization in a Long Term Preservation System, in: Emmanouel Garoufallou, Imma Subirats Coll, Armando Stello und Jane Greenberg (Hrsg.): Metadata and Semantics Research: 10th International Conference, Springer.

Miguel-Ángel, Sicilia, Sánchez-Alonso, Salvador und García-Barriocanal, Elena (2016): Sharing Linked Open Data over Peer-to-Peer Distribution File System: The Case of IPFS; in: Emmanouel Garoufallou, Imma Subirats Coll, Armando Stello und Jane Greenberg (Hrsg.): Metadata and Semantics Research: 10th International Conference, Springer.

Kunze, J. und Banker, T. (2007): Request for Comments (RFC) 5013: The Dublin Core Metadata Element Set; Auguts 2007, [online] https://tools.ietf.org/html/rfc5013 [20.02.2017].

Schmidt, Ulrich (Hrsg.) (2003): Datenformate im Medienbereich, Fachbuchverlag Leipzig im Carl Hanser Verlag.

W3C OWL Working Group (2012): OWL 2 Web Ontology Language, Document Overview (Second Edition), Dezember 2012, [online] https://www.w3.org/TR/owl2-overview/ [20.02.2017].

W3C: RDF, [online] https://www.w3.org/RDF/ [20.02.2017].

W3C: RDF 1.1 Concepts and Abstract Syntax, [online] https://www.w3.org/TR/rdf11-concepts/ [15.05.2017].

Zeng, Lei Marcia und Qin, Jian (2008): Metadata, Neal-Schuman.