1) Einführung/Hintergrund/Definitionen
Obwohl die Archäologie oft als "Sozial-" oder "Geisteswissenschaft" eingestuft wird, stützt sie sich bei der Untersuchung von Objekten auf Methoden, die aus den "Naturwissenschaften" stammen, um zu verstehen, wie sie hergestellt, benutzt, in einen archäologischen Fundkomplex eingelagert und nach der Einlagerung und/oder der Entsorgung verändert wurden.
Antworten auf diese und verwandte Fragen werden durch das gesucht, was oft als "archäologische Wissenschaft" bezeichnet wird: die Verwendung von Experimenten und Analysen, um durch Aufzeichnung von Beobachtungen Daten zu gewinnen.
Experimente spielen eine grundlegende, wenn auch oft übersehene Rolle in der archäologischen Theorie und Erkenntnistheorie.
Ihre Rolle ist etwas unklar, zum einen wegen der Ungewissheit darüber, ob die Archäologie zu den "Geisteswissenschaften" oder zu den Naturwissenschaften gehört, und zum anderen, weil Archäologen nicht direkt miterleben können, wie Dinge in der Vergangenheit hergestellt und/oder benutzt wurden oder was mit ihnen nach der Benutzung geschah.
Dies führt zu einer gewissen Zweifelhaftigkeit: Obwohl wir plausible Erklärungen vorschlagen können, werden wir aufgrund der Gleichheitsproblematik nie in der Lage sein, definitiv zu beweisen, wie die Dinge passiert sind.
Dieses Problem stellt sich jedoch bei jeder "historischen" Wissenschaft (im weitesten Sinne, d. h. auch bei der Kosmologie, der Evolutionsbiologie, der Paläontologie, der Paläoanthropologie usw.), aber niemand würde in Frage stellen, dass die Kosmologie eine „harte“ sachliche Naturwissenschaft ist.
Und so wie Kosmologen sich auf Beobachtungen alter Sterne und Simulationen stützen, müssen sich Archäologen auf die Analyse archäologischer Objekte und Experimente stützen.
Analytische Methoden werden sowohl bei experimentellen als auch bei archäologischen Objekten angewandt, um Hypothesen über sie zu prüfen.
Die Geschichte der Archäologie zeigt uns eine sich ständig erweiternde Palette von Analysemethoden, die auf alles angewandt werden kann, was dem Menschen und seinen Vorfahren im Laufe der Evolutions- und Umweltgeschichte begegnet ist.
Ein "Experiment" ist Teil eines formalen wissenschaftlichen Prozesses, der auf die Prüfung einer Hypothese abzielt.
Solche Experimente haben traditionell die Form von Replikation, Rekonstruktion und Nachstellung angenommen; neuere formale Experimente, die unter kontrollierten Bedingungen durchgeführt werden, stützen sich auf den Einsatz hochentwickelter High-Tech-Ausrüstung (Rasterelektronenmikroskope, Roboterarme, Computersimulationen), um sowohl Methoden als auch Beobachtungen digital aufzuzeichnen.
Obwohl jede archäologische Interpretation oder Schlussfolgerung in Bezug auf die Herstellung oder Verwendung eines Objekts eigentlich als zu prüfende Hypothese betrachtet werden sollte, fehlt es den Archäologen oft an der Infrastruktur, der theoretischen Grundlage, den Ressourcen und/oder den Arbeitsmitteln für die Durchführung der notwendigen Tests.
Analytik und Archäometrie können eher als "normale Wissenschaft" betrachtet werden, in der nach ausgiebigen Experimenten - Test- und Messmethoden so weit entwickelt und etabliert wurden, dass sie durchaus routinemäßig und weithin akzeptiert sind ("black boxed", nach dem Philosophen Bruno Latour).
Trotz der scheinbar weit verbreiteten Annahme, dass Protokolle für eine jeweilige Methode fest etabliert sind und gut dokumentiert werden, beweist die derzeitige Krise der Reproduzierbarkeit in der Wissenschaft, dass dies nicht der Fall ist; die Archäologie bildet hier keine Ausnahme.
Einige Veröffentlichungen publizieren ganz spezifisch Protokolle; im all von NatureProtocols (https://www.nature.com/nprot/about) sollen die Protokolle den primären Forschungsartikel begleiten und können vor der Einreichung verlangt werden.
Es gibt viele Arbeitshilfen zur Erfassung/Berichterstattung von Protokollen (z. B. https://www.protocols.io/ oder https://openlabnotebooks.org/).
Viele medizinisch-klinische Studien müssen registriert werden (z. B. https://clinicaltrials.gov/ct2/home), bevor sie durchgeführt werden können.
Die meisten dieser Tools sind jedoch entweder feldspezifisch (z. B. Chemie-/Biologielabor) und/oder in ihren Funktionen eingeschränkt (siehe unten).
2) Stand der Technik: was vorhanden ist und was fehlt
Trotz ihrer grundlegenden Bedeutung ist die experimentelle Archäologie extrem unterentwickelt und nur schwach im archäologischen Prozess verankert, sowohl aus rein theoretischer Sicht als auch (was für die vorliegende Initiative von größerer Bedeutung ist) im Hinblick auf die Berichterstattung, Dokumentation und Weitergabe der Versuchsplanung und der Ergebnisse.
Es gibt nur sehr wenige Datenbanken (oder gar Listen) über durchgeführte Experimente, und die meisten Berichte über die Versuchsplanung sind nicht detailliert genug, um die Wiederholbarkeit der Verfahren und/oder die Reproduzierbarkeit der Ergebnisse zu gewährleisten.
Während die gemeinsame Nutzung von Forschungsdaten zunehmend an Bedeutung gewinnt - selbst in einem so traditionell konservativen Fach wie der Archäologie -, müssen wir unbedingt in der Lage sein, die Qualität der offen zugänglichen Daten zu bewerten.
Dies lässt sich aus drei Blickwinkeln betrachten:
- (1) Warum wurden die Daten erzeugt (Kontext, Hypothese usw.),
- (2) wie wurden die Daten erzeugt (Proben, Methode, Ausrüstung und damit verbundene Genauigkeit usw.)
und
- (3) warum wurden sie auf diese Weise erzeugt (Eignung der Methode für die Hypothese usw.).
Der erste Faktor bezieht sich auf die Formulierung der Hypothese.
Um Verzerrungen bei der (statistischen) Analyse der Daten zu vermeiden, sollte die Hypothese formuliert werden, bevor die Daten erzeugt werden.
Außerdem wurden schon viele Experimente durchgeführt und viele Methoden angewandt, ohne dass eine klare Zielsetzung vorlag.
Faktor Nr. 2 bezieht sich auf die Metadaten.
Einige können aus den Daten selbst extrahiert werden (z. B. wird die Vergrößerung eines REM-Bildes in der Regel zusammen mit dem Bild gespeichert), aber einige sind schwerlich zu extrahieren, und die meisten lassen sich kaum automatisch zu extrahieren.
Darüberhinaus ist noch nicht klar, welche Metadaten für die Bewertung der Datenqualität bei vielen Methoden erforderlich sind.
Ein Beispiel: Die Vergrößerung eines mikroskopischen Bildes ist offensichtlich wichtig, denn sie spiegelt die Größe der Merkmale wider, die beobachtet werden können.
Aber - obwohl die Auflösung aus demselben Grund ebenso wichtig ist - wird die numerische Apertur des Objektivs in archäologischen Studien fast nie angegeben, und einige Objektivhersteller liefern diese Information nicht einmal.
Faktor Nummer 3 veranschaulicht einen reflexiven Prozess.
Allzu oft wird in der Wissenschaft eine Methode ausgewählt, nur weil jemand anderes sie angewandt hat, ohne die Angemessenheit dieser Methode für die gegebenen Proben und/oder Hypothesen zu hinterfragen.
Um ein einfaches, extremes Beispiel zu nennen: Selbst wenn in einer veröffentlichten Studie Säure zur Reinigung von Feuersteinobjekten verwendet wurde, sind Säuren definitiv nicht geeignet, um (zerstörungsfrei) Objekte aus Kalkstein zu reinigen.
3. Arbeitshilfen
Trotz ihrer grundlegenden Bedeutung ist die experimentelle Archäologie extrem unterentwickelt und nur schwach im archäologischen Prozess verankert, sowohl aus rein theoretischer Sicht als auch (was für die vorliegende Initiative von größerer Bedeutung ist) im Hinblick auf die Berichterstattung, Dokumentation und Weitergabe der Versuchsplanung und der Ergebnisse.
Es gibt nur sehr wenige Datenbanken (oder gar Listen) über durchgeführte Experimente, und die meisten Berichte über die Versuchsplanung sind nicht detailliert genug, um die Wiederholbarkeit der Verfahren und/oder die Reproduzierbarkeit der Ergebnisse zu gewährleisten.
Unser Ziel ist es, eine Reihe von Werkzeugen zu entwickeln, um diese Probleme zu lösen.
Diese können in drei Kategorien eingeteilt werden:
- (1) Arbeitsabläufe,
- (2) Daten
und
Diese Werkzeuge können unabhängig voneinander entwickelt werden, sollten aber letztendlich zu einer einzigen Schnittstelle kombiniert werden (dies würde einen regelmäßigen Austausch und Feedback zwischen den Entwicklungsteams erfordern).
1) Arbeitsabläufe:
[Ziele]
Unser Ziel ist es, ein flexibles Werkzeug zu entwickeln, das es den Forschern ermöglicht, den Aufbau eines Experiments, das Protokoll einer Probenvorbereitung oder einer Analyse aufzuzeichnen (im Folgenden unter dem Begriff "Workflow" zusammengefasst).
Diesem Arbeitsablauf sollte eine DOI/URI zugewiesen werden, die bereits vor der Durchführung des Experiments oder vor der Anwendung des Verfahrens/ der Analyse zitiert werden kann.
Tool zur Hypothesenformulierung: Während Workshops oder Richtlinien bei der Entwicklung von testbaren Hypothesen und der Konzeption von Experimenten helfen könnten, könnte der Prozess auch durch die Anwendung einer Art von Logik-Tools formalisiert werden; die zugrunde liegende Ontologie würde dem von einer CIDOC-CRM Special Interest Group entwickelten CRMinf Argumentationsmodell folgen oder darauf aufbauen, das).
Ziel ist es, diesen Teil des Prozesses strenger und transparenter zu gestalten; ein Datum, auf das bei jedem Schritt auf dem Weg Bezug genommen werden kann.
Ein analoges "Analysewerkzeug" würde klar definieren, was ein bestimmter Prozess messen soll und warum (die wichtige Frage bei Fragen der "dichten Beschreibung" und der Definition von Zielen [Aristoteles' "letzte Ursache"]).
Dies mag recht einfach erscheinen, bis man bedenkt, dass verschiedene Maße für so abstrakte Eigenschaften wie "Rauheit" zwar DIN-Normen entsprechen - sie wurden für die Verwendung in der Automobilindustrie und ähnlichen Branchen entwickelt -, aber nicht unbedingt einen Wert ergeben, der uns sagt, ob eine bestimmte Oberfläche "rau" ist oder nicht, ohne dass eine Interpretation erforderlich ist.
In beiden Fällen sollte es eine abschließende "Nachbesprechung" geben, um zu überprüfen, ob die ursprünglichen Ziele erreicht wurden.
Laborprotokoll-Tool: eine formale, ausführlichere Version von Standard-Labornotizbüchern, d. h. formale Hilfsmittel zur Aufzeichnung eines jeden Schritts im experimentellen/analytischen Prozess, wobei der Schwerpunkt auf der Aufzeichnung der getroffenen Entscheidungen liegt: welche verschiedenen Optionen gab es und warum wurde eine Option gegenüber einer anderen gewählt.
Instrument(e) zur Nachbesprechung: Mittel zur Bewertung, ob die Ziele erreicht wurden, ob die Hypothese bewiesen oder widerlegt wurde, zur Überprüfung der Logik der vorgebrachten Argumente und ob die Schlussfolgerung daraus folgt oder nicht, usw.
Dies ist zu diesem Zeitpunkt der Projektentwicklung von geringerer Bedeutung, da das einfache Verfassen des Teils "Diskussion" und/oder "Schlussfolgerungen" einer beliebigen Veröffentlichung zu ähnlichen Ergebnissen führen kann, aber dies könnte Markierungen oder Ergänzungen zu den Daten und Metadaten beinhalten, die im Laufe des Projekts erstellt wurden.
Es sollte eine Art reflexives, kritisches "Feedback" vorgesehen werden, um dem Benutzer die Möglichkeit zu geben, den Prozess von Anfang bis Ende zu überdenken und über die Lehren, die er aus dem Prozess selbst gezogen hat, nachzudenken, die dann in die nächste Runde von Experimenten und/oder analytischen Prozessen einfließen können.
[Umsetzung]
Die derzeitig anvisierte Umsetzung - die im Laufe des Entwicklungsprozesses noch überarbeitet werden kann - ist eine Schnittstelle, die visuellen Programmiersprachen ähnelt, mit vordefinierten Blöcken (siehe unten), die der Benutzer in das Workflow-Fenster ziehen kann, um seinen Workflow aufzubauen.
Schritte innerhalb des Gesamtprozesses:
- Planung (Forschungsdesign, einschließlich Formulierung von Hypothesen und/oder Zielen)
- Probenvorbereitung
- Messung oder Beobachtung
- Datenmanipulation (Auswahl, Formatänderung usw.)
- Datenanalyse (einschließlich Bildmanipulation, Bewertung der Eignung für verschiedene statistische Tests usw.)
- Aufbereitung der Daten für die Speicherung
Die Möglichkeiten dieses Werkzeugs sollten jedoch über die einfache Aufzeichnung eines Arbeitsablaufs hinausgehen.
Viel wichtiger ist die Möglichkeit, den Arbeitsablauf zu bearbeiten und zu aktualisieren, ohne dass die früheren Versionen verloren gehen.
Mit anderen Worten: Versionierung und Versionskontrolle sind entscheidend.
Das liegt daran, dass jedes Experiment und jede Analyse auf unvorhergesehene Probleme stoßen kann und möglicherweise von der ursprünglichen Idee abgewichen werden muss, aber die ursprüngliche Idee bleibt relevant.
Dazu müssen die Änderungen am Arbeitsablauf nachverfolgt werden (ähnlich wie bei der Änderungsverfolgung in MS Word oder allgemeiner bei Git/GitHub), und die verschiedenen "freigegebenen" Versionen müssen gespeichert und zu Zitierzwecken mit einem DOI/URI versehen werden (ähnlich wie bei Zenodo).
Die grundlegendsten Bausteine sind natürlich die "Hypothese", die "Probenvorbereitung" und die "Schritte" des Arbeitsablaufs ([CRMsci] folgend oder darauf aufbauend), aber es müssen mehrere zusätzliche Arten von Blöcken zur Verfügung stehen, um einen Arbeitsablauf zu bearbeiten: Hinzufügen von "Verzweigungen" (wenn z. B. eine neue Route eingeschlagen wird), eindeutige "Sackgassen" (die angeben, wo die gegebene Verzweigung aufhört), potenzielle, noch unerforschte Routen (Zukunftsperspektiven) und möglicherweise Aussagen zu den erwarteten Ergebnissen.
Andere Arten von Blöcken wären erforderlich, um die Schritte zu verbinden. Da es sich um eine visuelle/grafische Darstellung handelt, sind symbolische Pfeile intuitiver als Zahlen.
Ein Arbeitsablauf ist jedoch selten linear: Schritte können wiederholt werden (Schleifen), parallel ablaufen (Divergenz), die Ergebnisse von zwei Schritten müssen kombiniert werden (Zusammenführung)...
Eine weitere wichtige Funktion, die integriert werden muss, ist eine Möglichkeit, jeden Schritt und jede Verbindung zwischen den Schritten zu kommentieren.
Diese Kommentare könnten einige "Best Practice"-Informationen oder Warnungen zu einem bestimmten Schritt enthalten oder erklären, warum dieser Schritt so und nicht anders durchgeführt wurde.
Letzteres wird es den Forschern ermöglichen, über ihren Arbeitsablauf nachzudenken, und wird sicherlich die Qualität der Ergebnisse verbessern.
Schließlich sollte der gesamte Arbeitsablauf als Baumdiagramm (oder ähnlich: ein gerichteter Graph, der aus Knoten und Kanten besteht) in einem lesbaren Layout dargestellt werden, das der Benutzer exportieren und in Veröffentlichungen verwenden oder einfach unter Verwendung der DOI/URI zitieren kann.
Vektorgrafikformate (z. B. SVG oder PDF) wären das bevorzugte Exportformat, aber auch Rasterformate (z. B. PNG) sollten verfügbar sein.
Weitere wichtige periphere Funktionen sind:
- Querverweise im gesamten Arbeitsablauf.
- Erstellung/Verwaltung von Einheiten innerhalb des Arbeitsablaufs, z. B. Probenvorbereitung, Experiment, Analyseschritte 1, 2, 3 usw., mit der Möglichkeit zum Vergrößern/Verkleinern oder zur Fokussierung auf eine einzelne Einheit oder einen einzelnen Schritt.
- Duplizieren eines Arbeitsablaufs, damit andere, die ähnliche Experimente oder Analysen durchführen wollen, hierauf aufbauen können.
- Verwaltung von Proben, um den Werdegang jeder experimentellen oder archäologischen Probe zu verfolgen.
URIs werden archäologischen Objekten während der Ausgrabung und/oder Konservierung zugewiesen (TA1-2).
URIs für experimentelle Proben können jedoch nur zugewiesen werden, wenn die Proben erstellt werden, und experimentelle Proben werden normalerweise von dem Institut gehostet, das ein bestimmtes Experiment durchführt.
Dieses Verwaltungssystem für Proben ist besonders wichtig für die Probenvorbereitung, die Prozessierung (im statistischen Sinne) und die Datenanalyse.
Dieser Prozess sollte in enger Zusammenarbeit mit TA5 entwickelt werden.
- Verwaltung der Geräte, so dass der Benutzer schnell ein Versuchs- oder Analysegerät hinzufügen kann.
Hierfür ist eine Datenbank mit den Gerätetypen und den dazugehörigen notwendigen Einstellungen erforderlich (siehe unten).
Diese Datenbank könnte zwei Ebenen haben: eine generische Ebene für einen Gerätetyp, der in das Tool eingebaut wird, und eine weitere spezifische Ebene, auf der der Benutzer die in einem bestimmten Labor verfügbaren Geräte hinzufügen kann (dies könnte lokal gespeichert werden).
Dabei könnten persistente Identifikatoren für Instrumente verwendet werden (Stocker et al. 2020, https://doi.org/10.5334/dsj-2020-018). Dies sollte in enger Zusammenarbeit mit TA1 geschehen.
2) Daten:
Letztlich müssen die Daten auf sichere und frei zugängliche Weise gespeichert werden (sofern dies rechtlich und ethisch zulässig ist).
Wichtig ist auch, dass alle Daten mit der Probe, der Probenvorbereitung/dem experimentellen/analytischen Arbeitsablauf und den zugehörigen Metadaten verknüpft sind.
Derzeit besteht Bedarf an einer langfristigen Speicherung von Versuchs- und Analyseprotokollen (einschließlich Videos), Versuchs- und Analyseergebnissen usw.
Es wird zu entscheiden sein, ob dieses Problem durch eine zentralisierte Datenbank, die für die langfristige Speicherung und Pflege zuständig ist, oder durch andere, weniger zentrale Mittel (lokale Speicherung mit einer Art zentralem Register?) gelöst werden soll - dies bleibt abzuwarten.
Das Ziel sollte die Speicherung, die Pflege und die Gewährleistung der Zugänglichkeit sein.
Die derzeit auf Youtube hochgeladenen Videos sind beispielsweise schwer zu finden, und ihre langfristige Verfügbarkeit ist unklar.
Von größter Bedeutung für das gesamte Vorhaben ist die Notwendigkeit, die "offiziellen" Ergebnisse (d. h. Veröffentlichungen, in welcher Form auch immer) und alle verbreiteten Daten mit den kontextuellen (Meta-)Daten zu verknüpfen, die wir zu erfassen versuchen.
Idealerweise sollten diese Daten unter der CC BY-SA 4.0-Lizenz (oder einer ähnlichen Lizenz) veröffentlicht werden, so dass die Nutzer im Gegenzug ihre neuen Daten zugänglich machen müssen.
So wird sichergestellt, dass die Nutzer auch zu einer wachsenden Datenbank beitragen.
Bestehende Datenbanken und Repositories (Datenablagen) sind selten miteinander kompatibel und nicht alle erlauben die Speicherung aller Arten von Daten, die bei Experimenten und Analysen anfallen (Bilder, Videos, Tabellen, Grafiken, 3D-Modelle usw.), und schon gar nicht in strukturierter Form.
Speziell für die experimentelle Archäologie gibt es kein maßgeschneidertes Repository für Dokumentation und Ergebnisse von Experimenten.
Dazu enthalten, wenn überhaupt, nur wenige dieser Repositorien Werkzeuge, um Metadaten zu den gespeicherten Daten hinzuzufügen.
Viele Forscher werden sich dafür entscheiden, ihre Daten auf den Servern ihrer Einrichtung oder auf ihren bevorzugten Repositorien zu speichern, aber wir sollten auch denjenigen die Möglichkeit geben, Daten zu speichern, die keinen Zugang oder Affinität zu solchen Repositorien haben.
Das bedeutet auch, dass die vorhandenen Datenserver/Repositorien bekannt sein müssen und es möglich sein muss, zu wissen, wo jede Ressource gespeichert ist (unter Verwendung von DOI/URI).
Mit anderen Worten, es wird eine Datenbank, eine Liste oder ein Register aller verfügbaren Datenbanken benötigt.
Schließlich sollten wir, sofern dies möglich und erwünscht ist, über ein Tool verfügen, das den Import bestehender Daten in die vorgeschlagene Datenbank ermöglicht.
Dies sollte in enger Zusammenarbeit mit TA5 geschehen.
3) Metadaten:
Ein weiteres Werkzeug bzw. eine Reihe von Werkzeugen, die letztlich mit den ersten verbunden sein sollten, betrifft die Erfassung und Verwaltung von Metadaten.
Idealerweise sollten Werkzeuge entwickelt werden, die es ermöglichen, die Metadaten direkt aus den Daten zu extrahieren.
Dies ist jedoch nicht für alle Datentypen und auch nicht für alle Metadaten eines bestimmten Datentyps realistisch.
Wenn dies nicht möglich ist, muss der Benutzer sie manuell eingeben. Dies ist zwar zeitaufwändig, aber das von uns vorgeschlagene Werkzeug wird den Benutzer bei dieser Aufgabe unterstützen.
Auf diese Weise weiß der Benutzer, was zu melden ist, und die Auswahl ist nicht seinem Erinnerungsvermögen unterlegen.
Leider ist es auch eine Tatsache, dass die Geräteeinstellungen der verschiedenen Hersteller kaum einheitlich sind.
So kann es vorkommen, dass die Benutzer eines Geräts verschiedene Parameter melden können, während die Benutzer eines anderen Geräts nur begrenzten Zugang zu Einstellungen haben.
Im schlimmsten Falle sind selbst ähnliche Einstellungen möglicherweise nicht zwischen den Herstellern vergleichbar.
Wenn vorhanden, sollten Initiativen wie „Faires Datenblatt“ (http://optassyst.de/fairesdatenblatt/) genutzt werden, um die Einstellungen zu harmonisieren.
Konkret stellen wir uns eine Schnittstelle vor, bei der der Benutzer für jede Datenart aus einer Reihe von Gerätetypen auswählen kann.
Eine Liste allgemeiner und/oder spezifischer Geräte (siehe oben) sollte dem Benutzer dann helfen, die wichtigen Informationen (Hersteller, Modell, Baujahr, Softwareversion...) zu identifizieren und einzugeben.
Der nächste Schritt würde den Benutzer dazu anleiten, die relevanten Einstellungen (Objektiv, Temperatur, Kalibrierung usw.) aus einer für jeden Gerätetyp definierten Liste zu melden.
Bei all diesen Schritten sollten die Informationen, die mit den Definitionen verknüpft sind, dem Benutzer helfen zu verstehen, worum es in den einzelnen Feldern geht.
Diese Definitionen sollten Teil einer Ontologie sein.
Die Thesauri und Ontologien, die üblicherweise für die Verwendung mit Standarddatenbanken entwickelt werden, sind bei einem Projekt mit einer so großen Bandbreite von Aktivitäten möglicherweise nur von begrenztem Nutzen.
Zu den zu erwartenden Problemen gehören Standards wie die etwas willkürliche Unterscheidung zwischen "Experiment" und "Analytik" bis hin zur Einbeziehung von Methoden und Geräten, die noch nicht bekannt sind.
4. Erforderliche Normen, Richtlinien und Ausbildung
Zu den Voraussetzungen für die Entwicklung dieser Instrumente gehören Standards oder Richtlinien, die entwickelt werden müssen, sowie die Förderung der Übernahme dieser Instrumente durch die archäologische Gemeinschaft.
1) Standards, Leitlinien und bewährte Verfahren ("best practices"):
Standards sind in der Archäologie aufgrund der großen Vielfalt der angewandten Methoden nur schwer zu entwickeln.
Bestenfalls können wir uns um Standards für jede dieser Methoden bemühen, selbst dann stehen oft mehrere geeignete Standards für eine einzige Methode zur Auswahl.
In Bezug auf die Metadaten wird es, wie oben erläutert, immer Hersteller geben, die diese Informationen nicht zur Verfügung stellen, selbst wenn die Relevanz einer bestimmten Einstellung (z. B. die numerische Apertur des Objektivs) bekannt ist.
Aus diesem Grund sollten anstelle von Normen Leitlinien und/oder bewährte Verfahren bevorzugt werden.
Diese sollten dem Benutzer helfen, das Experiment zu planen und die Proben auf wiederholbare, reproduzierbare und vergleichbare Weise zu analysieren.
Wir brauchen daher Standards/Leitlinien/Best Practices zu folgenden Themen:
- Formulierung von Hypothesen
- Versuchsplanung
- Probengröße (Anzahl/Menge)
- Probenvorbereitung
- Labor-Standards
- Dokumentation
- Arbeitsablauf
- Relevante Metadaten
- Datengewinnung
- Simulation
- usw.
2) Bildung/Outreach:
Bislang sind sich viele Archäologen der oben genannten Problematik noch gar nicht bewusst.
Warum sollten sie also die von uns vorgeschlagenen Instrumente einsetzen?
Aus diesem Grund ist es wichtig, die gesamte archäologische Gemeinschaft über diese grundlegenden Probleme aufzuklären und zu zeigen, warum sie für die Archäologie als Wissenschaft relevant sind.
Diese Bildungs- und Öffentlichkeitsarbeit sollte in enger Zusammenarbeit mit TA6 durchgeführt werden, aber ein Teil der für TA3 relevanten Gemeinschaft kann nur durch Forscher erreicht werden, die in dieser Gemeinschaft tätig sind.
Daher müssen die entwickelten Instrumente nicht nur auf Fachkonferenzen und Workshops vorgestellt werden, sondern auch an Universitäten gelehrt und in die Ausbildung neuer Labormitglieder integriert werden.
Da viele Archäologen mit diesen Konzepten nicht vertraut sind, müssen die oben skizzierten Werkzeuge intuitiv und einfach zu bedienen sein.
Der technische Teil (Programmierung, Strukturierung usw.) sollte für diejenigen zugänglich sein, die ihn sehen wollen; die meisten Benutzer wollen nur, dass er funktioniert.
Diese Werkzeuge müssen auch flexibel genug sein, um die gesamte Bandbreite an Arbeitsabläufen, Daten und Metadaten zu berücksichtigen.
Wir sind der Meinung, dass der beste Ansatz derzeit eine vorgeschlagene flexible Schnittstelle ist; sie sollte den Benutzer ohne Einschränkungen leiten und ihn nicht dazu zwingen, z. B. Einstellungen zu melden oder ein Protokoll vor der Veröffentlichung der Arbeit zu veröffentlichen.
Alles sollte möglich, aber nicht zwingend sein.
5. Feldversuche
Die Entwicklung dieses Werkzeugs würde von einem direkten Kontakt mit möglichst vielen experimentellen Archäologen und analytischen Laboren in Deutschland profitieren; wir müssen das breite Spektrum der Aktivitäten direkt untersuchen, die Probleme mit den potenziellen Nutzern diskutieren, die Werkzeuge auf ihre Bedürfnisse zuschneiden und Nutzer ermutigen, die von uns entwickelten Werkzeuge auszuprobieren um dann im weiteren Verlauf Feedback geben zu können.
Dies sind die Individuen, die die von uns entwickelten Werkzeuge und die daraus entstehende digitale Infrastruktur nutzen werden, und eine solche Infrastruktur muss im Allgemeinen eine kritische Masse erreichen, um lebensfähig zu sein und sich selbst zu tragen.
In den ersten 5 Jahren müssten so viele EXAR- und/oder deutsche EXARC-Mitglieder wie möglich konsultiert werden, nur um zu dokumentieren, was sie tun; dies hätte den zusätzlichen Vorteil, dass ihre Bindung an und/oder ihr Interesse an dem Projekt gestärkt würde.
6. Schlussfolgerungen
In Verbindung mit einer angemessenen Ausbildung und Öffentlichkeitsarbeit wird die Nutzung dieser Instrumente eine kritische Masse in Deutschland und darüber hinaus erreichen.
Resources:
- Institution
- Personnel
- Instruments and Tools
- Compounds and Substances
- References
Experimental design:
- Experiments
- Observations
- Measurements
- Reconstructions
- Replication
- Re-enactment
- Recipes
Tasks and Flowchart:
Demo version: