Datenmanagementpläne (DMP) sind ein Schlüsselelement eines guten Datenmanagements. Ein DMP beschreibt den Lebenszyklus der Daten. Er macht Aussagen über den Umgang mit Forschungsdaten während und nach dem Ende des Projekts. Dazu gehört, welche Daten gesammelt, verarbeitet und/oder erzeugt werden, welche Methoden und Standards angewandt werden, zu welchen Konditionen Daten genutzt werden können und wie die Daten kuratiert und aufbewahrt werden, auch nach Projektende. Er unterstützt Sie bei der Identifikation aller an einem Projekt Beteiligten und bei der realistischen Kalkulation der notwendigen Aufwände in Bezug auf Personal, Zeit, Fachexpertise und finanzieller Mittel.
Schreiben Sie bereits in der Planungsphase einen Datenmanagementplan. Er ist Ihre wichtigste Planungsunterlage und die Richtschnur für die tatsächliche Handhabung der Daten. Tun Sie das nicht nur dann, wenn Ihre Daten in einem Drittmittelprojekt mit einer definierten Zielsetzung und einer zeitlichen Begrenzung entstehen und kuratiert werden, sondern auch, wenn Sie mit dynamischen Daten befasst sind, deren Aktualisierung und Fortschreibung eine Daueraufgabe ist. Dies ist z. B. bei Bestandsdaten in Kulturerbe-Institutionen der Fall.
Beispiel: Datenmanagementplan mit FAIR-Schwerpunkt im EU-Programm Horizon 2020
Webbasiertes Tool: An vielen deutschen Hochschulen ist der Research Data Management Organiser (RDMO) für Institutionsangehörige verfügbar. Je nach Institution sind unterschiedliche Templates für Datenmanagementpläne hinterlegt, die man für das eigene Vorhaben anpassen kann.
Ein Datenbestand einer Sammlung soll mit GND-Normdatenreferenzen für die erwähnten Personen, für Sachschlagworte und Geografika ausgestattet werden. Große zu bearbeitende Mengen bewältigt man effektiv mit Hilfe von Tools wie OpenRefine in separaten Arbeitsgängen im Rahmen der Datenkuratierung. Sollen zahlreiche Referenzen während der fortlaufenden Erschließung ermittelt werden, lohnt sich die Integration von Software-Funktionen, die den Katalogisierenden die schnelle Identifizierung und Verknüpfung des richtigen Normdatensatzes im Alltagsbetrieb erleichtern. Bei kleineren Mengen kann ein händisch-intellektuelles Verfahren das effektivste sein, da es einen vergleichsweise geringen Änderungsbedarf an anderen Stellen erzeugt. Die involvierten Mitarbeiter:innen müssen die einschlägigen Kompetenzen für das durchzuführende Datenmatching aufweisen oder erwerben. Änderungen an der Konfiguration der Datenbanksoftware oder des Metadatenschemas sind erforderlich. Korrektheit, Konsistenz und Abdeckung der eingetragenen Referenzen sind zu prüfen. Vor der Bereitstellung der Daten für die Publikation ist zu berücksichtigen, dass die Einträge korrekt und vollständig in das Bereitstellungsformat (z. B. MARC, LIDO, EAD) übernommen werden, die Datentransformationsskripte müssen ggf. angepasst werden.
Mit dem Betreibenden der Publikationsplattform ist ggf. abzustimmen, ob und wie die neuen Normdatenreferenzen die Funktionalitäten der Plattform unterstützen oder ob sie sogar verbesserte Linked-Data-Funktionen ermöglichen. Unkritisch ist es, falls die von Ihnen bereitgestellten Daten bereits Normdatenreferenzen enthalten, die die Plattform aktuell noch nicht verarbeitet. Die Plattformen arbeiten kontinuierlich am Qualitätsausbau ihrer Angebote und analysieren dazu die eingehenden Daten auf neue Nutzungspotentiale.
Machen Sie Ihre Daten über ein vertrauenswürdiges Repositorium zugänglich. Prüfen Sie schon früh verschiedene Repositorien, ob und in welcher Weise diese Sie bei der Umsetzung von FAIR unterstützen. Ein zertifiziertes Repositorium bietet einen vertrauenswürdigen Speicherort für Datensätze. Die Zertifizierung ist eine Garantie dafür, dass die Daten sicher gespeichert werden und langfristig verfügbar, auffindbar und zugänglich sind. Beispiele für Zertifizierungsstandards sind CoreTrustSeal, das nestor-Siegel für vertrauenswürdige digitale Langzeitarchive und ISO 16363-Zertifizierung. Der Zertifizierungsgrad sollte auf der Webseite des Repositoriums deutlich angegeben sein. Wenn es (noch) nicht zertifiziert ist, sollte es klare Aussagen bereitstellen, wie Verfügbarkeit, Zugänglichkeit und Wiederverwendbarkeit der (Meta-)Daten über einen definierten Zeitraum sichergestellt werden. Fragen Sie nach, wenn Ihnen Informationen fehlen oder die Umsetzung der beschriebenen Konditionen nicht klar ist. Erkundigen Sie sich auch nach eventuell anfallenden Kosten für die Speicherung und die damit verbundenen Bedingungen.
Richten Sie Ihre Datenhaltung auf die Konditionen des Repositoriums aus. Wenn Sie darüber hinaus die Standards des Repositoriums befolgen (bevorzugte Dateiformate, Metadatenschemata usw.), können Sie sicherstellen, dass alle Anforderungen für die Bereitstellung der Daten erfüllt sind.
Zur Publikation von Daten aus Bibliotheken, Archiven und Museen kommen neben den bibliothekarischen Online Public Access Catalogues (OPACs), dem Archivinformationssystem Arcinsys und von einzelnen Museen oder Verbünden getragene Webdatenbanken auch Fachportale oder Kulturerbe-Portale wie die Deutsche Digitale Bibliothek (DDB) infrage, die als Aggregatoren für Europeana fungieren. DDB und Europeana unterstützen beratend das lokale Qualitätsmanagement, bereiten Daten auf und präsentieren diese nicht nur in den Portalen, sondern auch über Schnittstellen zur weiteren Nachnutzung.
Crosas, Mercè: The FAIR Guiding Principles: Implementation in Dataverse, 2019
Zenodo Best Effort Principles: Abschnitte "FAIR Principles", "Self-assessment against the Plan S requirements for Open Access Repositories", "Strongly recommended additional criteria"