banner
Heim / Nachricht / Wie KI Historikern hilft, unsere Vergangenheit besser zu verstehen
Nachricht

Wie KI Historikern hilft, unsere Vergangenheit besser zu verstehen

Sep 06, 2023Sep 06, 2023

Die Historiker von morgen analysieren mithilfe der Informatik, wie Menschen vor Jahrhunderten lebten.

Es ist ein Abend im Jahr 1531 in der Stadt Venedig. In der Werkstatt einer Druckerei arbeitet ein Lehrling am Layout einer Seite, die für ein Astronomie-Lehrbuch bestimmt ist – eine dichte Schriftlinie und eine Holzschnittillustration eines Engelskopfes, der Formen beobachtet, die sich durch den Kosmos bewegen und eine Mondfinsternis darstellen.

Wie alle Aspekte der Buchproduktion im 16. Jahrhundert ist es ein zeitaufwändiger Prozess, der jedoch eine beispiellose Geschwindigkeit der Wissensverbreitung ermöglicht.

Fünfhundert Jahre später ist die Produktion von Informationen ein ganz anderes Tier: Terabytes an Bildern, Videos und Texten in Strömen digitaler Daten, die fast augenblicklich zirkulieren und fast genauso schnell analysiert werden müssen, was das Training von Maschinen ermöglicht – und erfordert -Lernmodelle zum Sortieren im Fluss. Dieser Wandel in der Informationsproduktion hat Auswirkungen auf die Zukunft von allem, vom künstlerischen Schaffen bis zur Arzneimittelentwicklung.

Aber diese Fortschritte ermöglichen auch einen anderen Blick auf Daten aus der Vergangenheit. Historiker haben damit begonnen, maschinelles Lernen – insbesondere tiefe neuronale Netze – zu nutzen, um historische Dokumente zu untersuchen, darunter astronomische Tabellen, wie sie in Venedig und anderen Städten der frühen Neuzeit erstellt wurden, verwischt durch Jahrhunderte, die in verschimmelten Archiven verbracht wurden oder durch die Hand eines Druckers verzerrt wurden.

Historiker sagen, dass die Anwendung der modernen Informatik auf die ferne Vergangenheit dazu beiträgt, Verbindungen über einen breiteren Bereich der historischen Aufzeichnungen herzustellen, als dies sonst möglich wäre, und Verzerrungen korrigiert, die durch die Analyse der Geschichte in einzelnen Dokumenten entstehen. Aber es führt zu eigenen Verzerrungen, einschließlich der Gefahr, dass maschinelles Lernen Voreingenommenheit oder völlige Verfälschungen in die historischen Aufzeichnungen einfließen lässt. All dies führt zu einer Frage für Historiker und andere, die, wie oft argumentiert wird, die Gegenwart durch die Untersuchung der Geschichte verstehen: Wie viel sollten wir ihnen von der Vergangenheit überlassen, wenn Maschinen in Zukunft eine größere Rolle spielen werden?

Big Data gelangte durch Initiativen zur Digitalisierung immer mehr historischer Dokumente in die Geisteswissenschaften, etwa die Sammlung von Millionen von Zeitungsseiten der Library of Congress und die Gerichtsakten des finnischen Archivs aus dem 19. Jahrhundert. Für Forscher ist dies ein Problem und eine Chance zugleich: Es gibt viel mehr Informationen, und oft gibt es keine Möglichkeit, diese zu sichten.

Die KI-Automatisierung in der gesamten Arzneimittelentwicklungspipeline eröffnet die Möglichkeit für schnellere und günstigere Arzneimittel.

Dieser Herausforderung wurde mit der Entwicklung von Rechenwerkzeugen begegnet, die Wissenschaftlern dabei helfen, die Komplexität zu analysieren. Im Jahr 2009 untersuchte Johannes Preiser-Kapeller, Professor an der Österreichischen Akademie der Wissenschaften, ein Verzeichnis von Entscheidungen aus der byzantinischen Kirche aus dem 14. Jahrhundert. Da Preiser-Kapeller erkannte, dass eine systematische digitale Untersuchung der Beziehungen zwischen Bischöfen erforderlich wäre, um Hunderten von Dokumenten einen Sinn zu geben, baute er eine Datenbank mit Einzelpersonen auf und nutzte Netzwerkanalysesoftware, um ihre Verbindungen zu rekonstruieren.

Diese Rekonstruktion enthüllte verborgene Einflussmuster und veranlasste Preiser-Kapeller zu der Argumentation, dass die Bischöfe, die in Versammlungen am meisten sprachen, nicht die einflussreichsten waren; Seitdem hat er die Technik auf andere Netzwerke angewendet, darunter auf die byzantinische Elite des 14. Jahrhunderts, und dabei Wege aufgedeckt, wie ihr soziales Gefüge durch die verborgenen Beiträge von Frauen aufrechterhalten wurde. „Wir konnten bis zu einem gewissen Grad erkennen, was außerhalb der offiziellen Erzählung vor sich ging“, sagt er.

Die Arbeit von Preiser-Kapeller ist nur ein Beispiel für diesen wissenschaftlichen Trend. Doch bis vor Kurzem war maschinelles Lernen oft nicht in der Lage, aus immer größeren Textsammlungen Schlussfolgerungen zu ziehen – nicht zuletzt, weil bestimmte Aspekte historischer Dokumente (im Fall von Preiser-Kapeller schlecht handgeschriebenes Griechisch) sie für Maschinen unleserlich machten. Jetzt haben Fortschritte im Deep Learning begonnen, diese Einschränkungen zu beseitigen, indem Netzwerke verwendet werden, die das menschliche Gehirn nachahmen, um Muster in großen und komplizierten Datensätzen zu erkennen.

Vor fast 800 Jahren veröffentlichte der Astronom Johannes de Sacrobosco im 13. Jahrhundert den Tractatus de sphaera, eine einführende Abhandlung über den geozentrischen Kosmos. Diese Abhandlung wurde zur Pflichtlektüre für Universitätsstudenten der frühen Neuzeit. Es war das am weitesten verbreitete Lehrbuch zur geozentrischen Kosmologie und blieb auch dann bestehen, als die kopernikanische Revolution im 16. Jahrhundert die geozentrische Sicht des Kosmos auf den Kopf stellte.

Die Abhandlung ist auch der Star in einer digitalisierten Sammlung von 359 Astronomie-Lehrbüchern, die zwischen 1472 und 1650 veröffentlicht wurden – 76.000 Seiten, darunter Zehntausende wissenschaftliche Illustrationen und astronomische Tabellen. Matteo Valleriani, Professor am Max-Planck-Institut für Wissenschaftsgeschichte, sah in diesem umfassenden Datensatz eine Gelegenheit, die Entwicklung des europäischen Wissens hin zu einer gemeinsamen wissenschaftlichen Weltanschauung zu verfolgen. Aber er erkannte, dass das Erkennen des Musters mehr als nur menschliche Fähigkeiten erforderte. Deshalb wandten sich Valleriani und ein Forscherteam des Berliner Instituts für Grundlagen des Lernens und Daten (BIFOLD) dem maschinellen Lernen zu.

Dazu musste die Sammlung in drei Kategorien unterteilt werden: Textteile (Schriftabschnitte zu einem bestimmten Thema, mit klarem Anfang und Ende); wissenschaftliche Illustrationen, die dabei halfen, Konzepte wie eine Mondfinsternis zu beleuchten; und numerische Tabellen, die zur Vermittlung mathematischer Aspekte der Astronomie verwendet wurden.

All dies führt zu einer Frage für Historiker: Wenn Maschinen in Zukunft eine größere Rolle spielen werden, wie viel sollten wir ihnen von der Vergangenheit überlassen?

Zu Beginn, sagt Valleriani, habe sich der Text einer algorithmischen Interpretation widersetzt. Zum einen waren die Schriftarten sehr unterschiedlich; Frühneuzeitliche Druckereien entwickelten Unikate für ihre Bücher und verfügten oft über eigene metallurgische Werkstätten zum Gießen ihrer Buchstaben. Dies bedeutete, dass ein Modell, das die Verarbeitung natürlicher Sprache (NLP) zum Lesen des Textes nutzt, für jedes Buch neu trainiert werden musste.

Auch die Sprache war ein Problem. Viele Texte wurden in regional spezifischen lateinischen Dialekten verfasst, die für Maschinen, die nicht in historischen Sprachen geschult waren, oft nicht erkennbar waren. „Das ist generell eine große Einschränkung für die Verarbeitung natürlicher Sprache, wenn man nicht über den Wortschatz verfügt, den man im Hintergrund trainieren kann“, sagt Valleriani. Dies ist einer der Gründe, warum NLP bei dominanten Sprachen wie Englisch gut funktioniert, aber beispielsweise bei altem Hebräisch weniger effektiv ist.

Stattdessen extrahierten die Forscher den Text manuell aus den Quellmaterialien und identifizierten einzelne Verknüpfungen zwischen Dokumentensätzen – beispielsweise wenn ein Text in einem anderen Buch nachgeahmt oder übersetzt wurde. Diese Daten wurden in einem Diagramm platziert, das diese einzelnen Links automatisch in ein Netzwerk mit allen Datensätzen einbettete (die Forscher verwendeten dann ein Diagramm, um eine maschinelle Lernmethode zu trainieren, die Verbindungen zwischen Texten vorschlagen kann). Übrig blieben die visuellen Elemente der Texte: 20.000 Abbildungen und 10.000 Tabellen, die Forscher mithilfe neuronaler Netze untersuchten.

Computer Vision für historische Bilder steht vor ähnlichen Herausforderungen wie NLP; Es hat das, was Lauren Tilton, außerordentliche Professorin für digitale Geisteswissenschaften an der University of Richmond, eine „präsentistische“ Tendenz nennt. Viele KI-Modelle werden anhand von Datensätzen aus den letzten 15 Jahren trainiert, sagt Tilton, und die Objekte, die sie aufzulisten und zu identifizieren gelernt haben, sind in der Regel Merkmale des heutigen Lebens, wie Mobiltelefone oder Autos. Computer erkennen oft nur zeitgenössische Iterationen von Objekten, die eine längere Geschichte haben – denken Sie an iPhones und Teslas und nicht an Telefonzentralen und Model Ts. Um das Ganze abzurunden, werden Modelle in der Regel mit hochauflösenden Farbbildern trainiert und nicht mit körnigen Schwarz-Weiß-Fotografien der Vergangenheit (oder frühneuzeitlichen Darstellungen des Kosmos, deren Aussehen inkonsistent ist und die im Laufe der Zeit an Qualität verloren haben). Dies alles führt dazu, dass Computer Vision bei der Anwendung auf historische Bilder weniger genau ist.

„Wir werden mit Informatikern sprechen und sie werden sagen: ‚Nun, wir haben die Objekterkennung gelöst‘“, sagt sie. „Und wir werden tatsächlich sagen, wenn Sie eine Reihe von Fotos aus den 1930er Jahren machen, werden Sie sehen, dass das Problem noch nicht ganz so gelöst ist, wie wir denken.“ Deep-Learning-Modelle, die Muster in großen Datenmengen erkennen können, können hilfreich sein, da sie zu einer größeren Abstraktion fähig sind.

Im Fall des Sphaera-Projekts trainierten BIFOLD-Forscher ein neuronales Netzwerk, um Abbildungen aus frühneuzeitlichen Texten zu erkennen, zu klassifizieren und (nach Ähnlichkeit) zu gruppieren; Dieses Modell ist jetzt für andere Historiker über einen öffentlichen Webdienst namens CorDeep zugänglich. Sie wählten auch einen neuartigen Ansatz zur Analyse anderer Daten. Beispielsweise konnten verschiedene Tabellen, die in den Hunderten von Büchern der Sammlung gefunden wurden, visuell nicht verglichen werden, weil „die gleiche Tabelle auf 1.000 verschiedene Arten gedruckt werden kann“, erklärt Valleriani. Deshalb haben Forscher eine neuronale Netzwerkarchitektur entwickelt, die ähnliche Tabellen anhand der darin enthaltenen Zahlen erkennt und gruppiert, ohne deren Layout zu berücksichtigen.

Bisher hat das Projekt einige überraschende Ergebnisse gebracht. Ein in den Daten gefundenes Muster ermöglichte den Forschern zu erkennen, dass Europa nach der protestantischen Reformation zwar entlang religiöser Grenzen auseinanderbrach, die wissenschaftlichen Erkenntnisse jedoch zusammenwuchsen. Die wissenschaftlichen Texte, die an Orten wie der protestantischen Stadt Wittenberg gedruckt wurden, die dank der Arbeit reformierter Gelehrter zu einem Zentrum für wissenschaftliche Innovation geworden war, wurden in Zentren wie Paris und Venedig nachgeahmt, bevor sie sich über den gesamten Kontinent verbreiteten. Die protestantische Reformation sei nicht gerade ein wenig erforschtes Thema, sagt Valleriani, aber eine maschinell vermittelte Perspektive ermöglichte es den Forschern, etwas Neues zu sehen: „Das war vorher absolut nicht klar.“ Auf die Tabellen und Bilder angewendete Modelle zeigen allmählich ähnliche Muster.

Computer erkennen oft nur zeitgenössische Iterationen von Objekten, die eine längere Geschichte haben – denken Sie an iPhones und Teslas und nicht an Telefonzentralen und Model Ts.

Laut Valleriani bieten diese Tools Möglichkeiten, die über die bloße Verfolgung von 10.000 Tabellen hinausgehen. Stattdessen ermöglichen sie Forschern, aus Mustern in Datensatzclustern Rückschlüsse auf die Wissensentwicklung zu ziehen, selbst wenn sie tatsächlich nur eine Handvoll Dokumente untersucht haben. „Wenn ich mir zwei Tabellen ansehe, kann ich bereits eine große Schlussfolgerung über 200 Jahre ziehen“, sagt er.

Auch bei der Erforschung noch älterer Geschichte spielen tiefe neuronale Netze eine Rolle. Die Entschlüsselung von Inschriften (bekannt als Epigraphik) und die Restaurierung beschädigter Exemplare sind mühsame Aufgaben, insbesondere wenn beschriftete Objekte verschoben wurden oder kontextbezogene Hinweise fehlen. Spezialisierte Historiker müssen fundierte Vermutungen anstellen. Um zu helfen, haben Yannis Assael, ein Forscher bei DeepMind, und Thea Sommerschield, Postdoktorandin an der Universität Ca' Foscari in Venedig, ein neuronales Netzwerk namens Ithaca entwickelt, das fehlende Teile von Inschriften rekonstruieren und den Texten Daten und Orte zuordnen kann. Forscher sagen, dass der Deep-Learning-Ansatz – der das Training an einem Datensatz von mehr als 78.000 Inschriften umfasste – der erste ist, der Wiederherstellung und Zuschreibung gemeinsam angeht, indem er aus großen Datenmengen lernt.

Bislang, sagen Assael und Sommerschield, wirft der Ansatz Licht auf Inschriften von Dekreten aus einer wichtigen Periode im klassischen Athen, die seit langem auf 446 und 445 v. Chr. zurückgeführt werden – ein Datum, das einige Historiker bestritten haben. Als Test trainierten die Forscher das Modell anhand eines Datensatzes, der die betreffende Inschrift nicht enthielt, und baten es dann, den Text der Dekrete zu analysieren. Dadurch ergab sich ein anderes Datum. „Ithakas durchschnittliches vorhergesagtes Datum für die Dekrete ist 421 v. Chr., was mit den jüngsten Datierungsdurchbrüchen übereinstimmt und zeigt, wie maschinelles Lernen zu Debatten über einen der bedeutendsten Momente in der griechischen Geschichte beitragen kann“, hieß es in einer E-Mail.

Andere Projekte schlagen vor, maschinelles Lernen zu nutzen, um noch umfassendere Rückschlüsse auf die Vergangenheit zu ziehen. Dies war die Motivation für die Venedig-Zeitmaschine, eine von mehreren lokalen „Zeitmaschinen“ in ganz Europa, die inzwischen eingerichtet wurden, um die lokale Geschichte anhand digitalisierter Aufzeichnungen zu rekonstruieren. Das venezianische Staatsarchiv umfasst 1.000 Jahre Geschichte, verteilt auf 80 Regalkilometer; Ziel der Forscher war es, diese Aufzeichnungen zu digitalisieren, von denen viele noch nie von modernen Historikern untersucht wurden. Sie würden Deep-Learning-Netzwerke nutzen, um Informationen zu extrahieren und durch die Rückverfolgung von Namen, die im selben Dokument in anderen Dokumenten vorkommen, die Bindungen zu rekonstruieren, die einst die Venezianer verbanden.

Frédéric Kaplan, Präsident der Time Machine Organization, sagt, das Projekt habe nun genügend Verwaltungsdokumente der Stadt digitalisiert, um die Struktur der Stadt in vergangenen Jahrhunderten zu erfassen und es so möglich zu machen, Gebäude für Gebäude zu untersuchen und die Familien zu identifizieren, die dort an verschiedenen Orten lebten Zeitpunkte. „Das sind Hunderttausende Dokumente, die digitalisiert werden müssen, um diese Form der Flexibilität zu erreichen“, sagt Kaplan. „Das hat es noch nie gegeben.“

Wenn es jedoch um das ultimative Versprechen des Projekts geht – nicht weniger als eine digitale Simulation des mittelalterlichen Venedigs bis hin zur Nachbarschaftsebene durch Netzwerke, die durch künstliche Intelligenz rekonstruiert werden –, dann sind Historiker wie Johannes Preiser-Kapeller, der Professor der Österreichischen Akademie der Wissenschaften, der die Studie leitete, der Meinung, dass dies der Fall ist Viele byzantinische Bischöfe sagen, das Projekt sei nicht in der Lage gewesen, Ergebnisse zu liefern, weil das Modell nicht verstehen könne, welche Verbindungen sinnvoll seien.

WHO: Max-Planck-Institut für Wissenschaftsgeschichte

WAS: Eine webbasierte Anwendung zur Klassifizierung von Inhalten aus historischen Dokumenten, die numerische und alphanumerische Tabellen enthalten. Software kann visuelle Elemente finden, extrahieren und klassifizieren, die als „Inhaltsillustrationen“, „Initialen“, „Dekorationen“ und „Druckermarken“ bezeichnet werden.

Wer: DeepMind

Was: Ein tiefes neuronales Netzwerk, das darauf trainiert ist, gleichzeitig die Aufgaben der Textwiederherstellung, der geografischen Zuordnung und der chronologischen Zuordnung auszuführen, die zuvor von Epigraphikern ausgeführt wurden.

Wer: Ecole Polytechnique Fédérale de Lausanne, Ca' Foscari und das Staatsarchiv von Venedig

Was: Eine digitalisierte Sammlung des venezianischen Staatsarchivs, die 1.000 Jahre Geschichte umfasst. Sobald es abgeschlossen ist, werden Forscher mithilfe von Deep Learning historische soziale Netzwerke rekonstruieren.

Preiser-Kapeller hat sein eigenes Experiment mit der automatischen Erkennung durchgeführt, um Netzwerke aus Dokumenten zu entwickeln – indem er Netzwerkinformationen mit einem Algorithmus extrahiert, anstatt wie bei seiner Arbeit über die Bischöfe einen Experten Informationen extrahieren zu lassen, um sie in das Netzwerk einzuspeisen – und sagt, dass es viel bringt von „künstlicher Komplexität“, aber nichts, was der historischen Interpretation dient. Der Algorithmus war nicht in der Lage, Fälle zu unterscheiden, in denen die Namen zweier Personen auf derselben Steuerliste standen, von Fällen, in denen sie auf einer Heiratsurkunde standen. Preiser-Kapeller sagt also: „Was man wirklich bekommt, hat keinen erklärenden Wert.“ Es handelt sich um eine Einschränkung, die Historiker beim maschinellen Lernen hervorgehoben haben, ähnlich wie dies bei großen Sprachmodellen wie ChatGPT der Fall ist: Da Modelle letztendlich nicht verstehen, was sie lesen, können sie zu absurden Schlussfolgerungen gelangen.

Es stimmt, dass bei den derzeit verfügbaren Quellen eine menschliche Interpretation erforderlich ist, um den Kontext bereitzustellen, sagt Kaplan, obwohl er glaubt, dass sich dies ändern könnte, sobald eine ausreichende Anzahl historischer Dokumente maschinenlesbar gemacht wird.

Aber er stellt sich eine Anwendung des maschinellen Lernens vor, die transformativer und möglicherweise problematischer ist. Generative KI könnte verwendet werden, um Vorhersagen zu treffen, die leere Stellen in den historischen Aufzeichnungen ausfüllen – zum Beispiel über die Anzahl der Lehrlinge in einer venezianischen Handwerkswerkstatt – und zwar nicht auf der Grundlage einzelner Aufzeichnungen, die ungenau oder unvollständig sein könnten, sondern auf aggregierten Daten. Dies bringt möglicherweise mehr Nicht-Elite-Perspektiven ins Spiel, widerspricht jedoch der üblichen historischen Praxis, bei der Schlussfolgerungen auf verfügbaren Beweisen basieren.

Ein unmittelbareres Problem stellen jedoch neuronale Netze dar, die falsche Aufzeichnungen erstellen.

Auf YouTube können Zuschauer jetzt zusehen, wie Richard Nixon eine Rede hält, die für den Fall geschrieben wurde, dass die Mondlandung 1969 in einer Katastrophe endete, aber glücklicherweise nie gehalten werden musste. Forscher haben den Deepfake erstellt, um zu zeigen, wie KI unser gemeinsames Geschichtsgefühl beeinflussen könnte. In Sekundenschnelle kann man falsche Bilder von wichtigen historischen Ereignissen wie den Landungen am D-Day erzeugen, wie Dan Cohen, Professor für nordöstliche Geschichte, kürzlich mit Studenten in einem Kurs diskutierte, der sich der Erforschung der Art und Weise widmete, wie digitale Medien und Technologie das Geschichtsstudium prägen. „[Die Fotos sind] völlig überzeugend“, sagt er. „Man kann eine ganze Gruppe Leute am Strand mit einem Panzer und einem Maschinengewehr festnageln, und es sieht perfekt aus.“

Die neue Version des großen Sprachmodells des Unternehmens erfindet Dinge – kann aber auch zugeben, wenn etwas falsch ist.

Falsche Geschichte ist nichts Neues – Cohen verweist als Beispiel auf die Art und Weise, wie Joseph Stalin befahl, Feinde aus Geschichtsbüchern zu streichen –, aber das Ausmaß und die Geschwindigkeit, mit der Fälschungen erstellt werden können, sind atemberaubend, und das Problem geht über Bilder hinaus. Generative KI kann Texte erstellen, die sich plausibel lesen wie eine Parlamentsrede aus dem viktorianischen Zeitalter, wie es Cohen mit seinen Studierenden getan hat. Durch die Generierung historischer Handschriften oder Schriftarten könnte auch etwas erstellt werden, das überzeugend wie eine schriftliche historische Aufzeichnung aussieht.

Mittlerweile ermöglichen KI-Chatbots wie Character.ai und Historical Figures Chat den Benutzern, Interaktionen mit historischen Persönlichkeiten zu simulieren. Historiker haben Bedenken hinsichtlich dieser Chatbots geäußert, die beispielsweise dazu führen könnten, dass manche Personen weniger rassistisch und reumütiger erscheinen, als sie tatsächlich waren.

Mit anderen Worten: Es besteht die Gefahr, dass künstliche Intelligenz, von historischen Chatbots bis hin zu Modellen, die auf historischen Aufzeichnungen basierende Vorhersagen treffen, die Dinge völlig falsch macht. Einige dieser Fehler sind harmlose Anachronismen: Eine Anfrage an Aristoteles im Chatbot Character.ai nach seinen Ansichten über Frauen (die er als minderwertig ansah) ergab, dass sie „keine sozialen Medien haben“ sollten. Aber andere könnten folgenreicher sein – vor allem, wenn sie in eine Sammlung von Dokumenten eingebunden sind, die zu groß ist, als dass ein Historiker sie einzeln prüfen könnte, oder wenn sie von jemandem in Umlauf gebracht werden, der sich für eine bestimmte Interpretation der Geschichte interessiert.

Auch wenn keine vorsätzliche Täuschung vorliegt, befürchten einige Wissenschaftler, dass Historiker möglicherweise Werkzeuge verwenden, die sie nicht verstehen können. „Ich denke, dass darin ein großes Risiko besteht, weil wir als Humanisten oder Historiker die Analyse effektiv auf ein anderes Feld oder vielleicht eine Maschine auslagern“, sagt Abraham Gibson, Geschichtsprofessor an der University of Texas in San Antonio. Gibson sagt, dass seine Historikerkollegen, mit denen er sprach, bis vor Kurzem nicht die Bedeutung künstlicher Intelligenz für ihre Arbeit erkannten, aber sie werden sich zunehmend der Möglichkeit bewusst, dass sie irgendwann einen Teil der Interpretation der Geschichte einer Blackbox überlassen könnten.

Dieses „Black-Box“-Problem gibt es nicht nur in der Geschichte: Selbst Entwickler maschineller Lernsysteme haben manchmal Schwierigkeiten, ihre Funktionsweise zu verstehen. Glücklicherweise sind einige Methoden, die speziell für Historiker entwickelt wurden, so strukturiert, dass sie eine größere Transparenz bieten. Ithaca erstellt eine Reihe von Hypothesen, die nach Wahrscheinlichkeit geordnet sind, und BIFOLD-Forscher arbeiten an der Interpretation ihrer Modelle mit erklärbarer KI, um herauszufinden, welche Eingaben am meisten zu Vorhersagen beitragen. Historiker sagen, dass sie selbst die Transparenz fördern, indem sie die Menschen ermutigen, maschinelles Lernen mit kritischer Distanz zu betrachten: als nützliches Werkzeug, das aber genauso fehlbar ist wie Menschen.

Während die Skepsis gegenüber dieser neuen Technologie weiterhin besteht, nimmt das Fachgebiet sie allmählich auf, und Valleriani geht davon aus, dass die Zahl der Historiker, die Berechnungsmethoden ablehnen, mit der Zeit abnehmen wird. Die Bedenken der Wissenschaftler hinsichtlich der Ethik der KI seien weniger ein Grund, maschinelles Lernen nicht zu nutzen, als vielmehr eine Chance für die Geisteswissenschaften, zu ihrer Entwicklung beizutragen.

Wie der französische Historiker Emmanuel Le Roy Ladurie 1968 als Reaktion auf die Arbeit von Historikern schrieb, die in den 1840er Jahren begonnen hatten, mit Computergeschichte zu experimentieren, um Fragen wie die Abstimmungsmuster des britischen Parlaments zu untersuchen, „wird der Historiker von morgen ein Programmierer sein.“ , sonst wird er nicht existieren.

Moira Donovan ist eine unabhängige Wissenschaftsjournalistin mit Sitz in Halifax, Nova Scotia.

Diese Geschichte war Teil unserer Mai/Juni-Ausgabe 2023.

„Ich habe plötzlich meine Meinung darüber geändert, ob diese Dinger intelligenter sein werden als wir.“

Die Erzählung über das Betrügen von Schülern erzählt nicht die ganze Geschichte. Treffen Sie die Lehrer, die glauben, dass generative KI das Lernen tatsächlich verbessern könnte.

Hinton wird am Mittwoch bei EmTech Digital sprechen.

ChatGPT hat Spekulationen über künstliche allgemeine Intelligenz ausgelöst. Aber die nächste echte Phase der KI wird in bestimmten Bereichen und Kontexten stattfinden.

Entdecken Sie Sonderangebote, Top-Storys, bevorstehende Veranstaltungen und mehr.

Vielen Dank für das Absenden Ihrer E-Mail!

Es sieht so aus, als wäre etwas schief gelaufen.

Beim Speichern Ihrer Einstellungen ist ein Problem aufgetreten. Versuchen Sie, diese Seite zu aktualisieren und sie noch einmal zu aktualisieren. Wenn Sie diese Nachricht weiterhin erhalten, wenden Sie sich an [email protected] mit einer Liste der Newsletter, die Sie erhalten möchten.

All dies führt zu einer Frage für Historiker: Wenn Maschinen in Zukunft eine größere Rolle spielen werden, wie viel sollten wir ihnen von der Vergangenheit überlassen? Computer erkennen oft nur zeitgenössische Iterationen von Objekten, die eine längere Geschichte haben – denken Sie an iPhones und Teslas und nicht an Telefonzentralen und Model Ts.