Unser Standpunkt zu KI

Die Mission des Future of Life Institute besteht darin, transformative Technologien hin zum Nutzen des Lebens und weg von extremen Risiken zu lenken.
Eine Zusammenfassung unserer Position
Die Haltung des FLI zu fortgeschrittener künstlicher Intelligenz ist:
Extreme Risiken
FLI wendet sich gegen Entwicklung und Einsatz von KI-Technologien, die ein extremes Risiko für die Menschheit darstellen. Dazu gehören gesellschaftliche Risiken wie durch KI ausgelöstes politisches Chaos und epistemischer Zusammenbruch, physische Risiken wie durch KI ermöglichte biologische, nukleare oder Cyber-Katastrophen und existenzielle Risiken wie der Kontrollverust über künftige übermenschliche KI-Systeme. Stattdessen befürwortet das FLI die Entwicklung sicherer KI mit robusten, effektiven Institutionen zu ihrer Steuerung.
Konzentration von Macht
Das FLI wendet sich gegen extreme Machtkonzentration. Dazu gehören KI-gestützte orwellsche Überwachung und Kontrolle durch Regierungen, riesige KI-Konzerne, die erdrückende Monopole schaffen und extreme wirtschaftliche, soziale und politische Macht anhäufen, oder die Ermächtigung von KI auf Kosten der Menschheit. Das FLI befürwortet stattdessen demokratische Entscheidungsprozesse, wettbewerbsorientierte Märkte und die Ermächtigung der Menschheit.
Entwicklungspause für forgeschrittene KI
Das FLI ist der Ansicht, dass die Entwicklung neuer KI derzeit auf unsichere, unverantwortliche und unkontrollierte Weise erfolgt, auf dem Weg zu einer KI, die intelligenter ist als der Mensch (auch bekannt als künstliche Superintelligenz oder übermenschliche AGI), die für die bestehenden Institutionen wahrscheinlich unvorhersehbar, unkontrollierbar, unanpassbar und nicht zu beherschen sein wird. Daher befürwortet das FLI eine Pause für Experimentemit neuester Künstlicher Intelligenz und ein Moratorium für die Entwicklung künstlicher Superintelligenz für mindestens 15 Jahre. Dieses sollte so lange gelten, bis KI mit Sicherheitsgarantien entwickelt werden kann, die ihren Risiken angemessen sind, und zwar im Streben nach Allgemeinnützigkeit und einem sinnvollen partizipatorischen Prozess der globalen Beratung und Zustimmung.
Menschliches Empowerment
Im Folgenden werden diese Positionen näher erläutert und frühere, sowie aktuelle Arbeit von FLI aufgeführt, die mit diesen Positionen übereinstimmt.
Extreme Risiken
KI kann der Menschheit unglaubliche Vorteile bringen. Sie hat jedoch auch das Potenzial, Individuen oder der Gesellschaft weitreichenden Schaden zuzufügen, wenn nicht genügend Maßnahmen ergriffen werden, um sie sicher zu machen. Zu den verheerenden Risiken durch KI gehören biologische und chemische Angriffe, die Eskalation einer nuklearen Konfrontation, allgemeines politisches Chaos und ein epistemischer Zusammenbruch, extreme Machtkonzentration, wirtschaftliche Entmachtung, der Verlust von Kontrolle an unkontrollierbare künstliche Superintelligenz und vieles mehr. Die KI-Unternehmen, die diese Systeme entwickeln und einsetzen, sind sich dieser Gefahren zwar bewusst, arbeiten aber weiterhin in einem rücksichtslosen und zunehmenden Tempo, wobei sie Sicherheit Berichten zufolge als zweitrangig angesehen wird.
Es ist inzwischen klar, dass regulatorische Eingriffe entscheidend sind, um unsere gemeinsame Zukunft zu sichern. Dies ist der einzige Mechanismus, der die Transparenz, die Kontrolle und die Sicherheitsvorkehrungen liefert, die notwendig sind, um eskalierende Schäden zu verhindern, katastrophale Risiken zu mindern und sicherzustellen, dass die Vorteile von KI allen zugute kommen. Zugleich ist es klar, dass weitaus mehr Investitionen in technische Sicherheitslösungen erforderlich sind.
Im Einklang mit den obigen Leitsätzen setzt sich FLI für eine wirksame Steuerung von KI ein, einschließlich der Einführung robuster Lizenzierungs-, Prüfungs-, Aufsichts- und Haftungsregelungen. Um dies zu erreichen, arbeiten wir mit Gesetzgebern in den Vereinigten Staaten, der Europäischen Union, den Vereinten Nationen und darüber hinaus zusammen und beraten sie. Wirksame KI-Governance erfordert auch befähigte Institutionen, und das FLI arbeitet mit den wichtigsten Interessengruppen zusammen, um bei Gestaltung, Personalausstattung und Support dieser Institutionen behilflich zu sein. Neben diesen regulatorischen Bemühungen finanziert das FLI technische Forschung zur Verbesserung der quantitativen Sicherheit fortschrittlicher KI-Systeme und führt Bildungskampagnen durch, um das Bewusstsein für Risiken und notwendige Lösungen zu fördern.
Zu den erwähnenswerten Beispielen für unsere Arbeit zu diesem Thema gehören:
- Beratung zu und Eintreten für einen kritischen KI-Governance-Rahmen und -Gesetzgebung, einschließlich der Stärkung des AI-Act der EU durch die Einbeziehung von Systemen mit allgemeinem Verwendungszweck, der Forderung nach sinnvoller Überwachung, Lizenzanforderungen und Sicherheitsstandards für die KI-Entwicklung in den USA und der Abgabe von KI-Governance-Empfehlungen an die UN.
- Finanzierung technischer Forschung zu robusten und quantitativen KI-Sicherheitslösungen, einschließlich des ersten von Experten begutachteten Förderprogramms, das gewährleisten soll, dass KI sicher, ethisch und konstruktiv bleibt, der FLI Community für existenzielle Sicherheit, der Buterin safety research fellows und unserer laufenden Forschung an sicheren hardwaregestützten KI-Governance-Tools mit Mithril Security sowie der Quantitative AI Safety Initiative.
- Einberufung von und Beratung mit globalen Experten und Entscheidungsträgern zu den notwendigen Ansätzen und Überlegungen, um inspirierende Zukunfttsvisionen zu realisieren und hohe Risiken zu vermeiden. Dazu gehören die Einberufung der ersten großen Multistakeholder-KI-Sicherheitskonferenz im Jahr 2015, unsere Koordination und Entwicklung der Asilomar-KI-Prinzipien auf unserer Konferenz für nutzbringende KI im Jahr 2017, eine der ersten und einflussreichsten Listen von Governance-Prinzipien im Bereich der künstlichen Intelligenz, und unsere globale Partnerschaft mit The Elders, die die Notwendigkeit einer "vorausschauenden Führung" zur Bewältigung existenzieller Bedrohungen betont.
- Aufklärung der Öffentlichkeit und der politischen Entscheidungsträger über die großen physischen Risiken, die sich durch KI ergeben, wie etwa KI-gestützte chemische, biologische, radiologische und nukleare Angriffe. Dazu gehören die Verbreitung von tödlichen autonomen Waffen und die Integration von KI in die Kontrolle und Steuerung nuklearer Waffen, auf die wir mit unserem offenen Brief von Forschern aus dem Jahr 2017 und unserer viralen Filmreihe "Slaughterbots and Artificial Escalation" hingewiesen haben.
- Zusammenarbeit mit der Zivilgesellschaft, Industrieführern, akademischen Experten, Vordenkern und Gesetzgebern, um die eskalierenden und breit gestreuten Schäden durch unkontrollierte KI zu mindern, einschließlich unserer laufenden Kampagne zum Verbot von Deepfakes.
Konzentration von Macht
Eine unkontrollierte und sich beschleunigende technologische Entwicklung hat das Potenzial, enorme Macht in den Händen begünstigter Gruppen, Organisationen und Einzelpersonen zu konzentrieren. Dies hätte katastrophale Folgen, und nirgends ist dies deutlicher als im Fall künstlicher Intelligenz.
Regierungen könnten das unglaubliche Potenzial von KI als Waffe einsetzen, um ein orwellianisches Maß an Überwachung und gesellschaftlicher Kontrolle auszuüben. In den sozialen Medien konnten wir bereits beobachten, wie KI zur Manipulation des öffentlichen Diskurses eingesetzt werden kann. Der Zugang zu dieser Art von Informationskontrolle könnte durch fortschrittliche KI noch verstärkt werden und zu einem lähmenden "Wahrheitsverfall", sowie dem effektiven Zusammenbruch sinnvoller demokratischer Beteiligung führen.
Riesige KI-Konzerne könnten erdrückende Monopole schaffen, die ihnen enorme wirtschaftliche, soziale und politische Macht verleihen würden, welche die gewählter Regierungen übertreffen könnte. In dem Maße, in dem eine kleine Gruppe von Unternehmen Macht und Kapital auf Kosten von Arbeitsplätzen und Marktwettbewerb hortet, werden ganze Branchen und große Bevölkerungsgruppen zunehmend von ihnen abhängig - ohne zufriedenstellende Garantien, dass die Vorteile von allen geteilt werden. Beide Szenarien könnten schnell unumkehrbar werden: Sobald die KI genügend Macht innerhalb einer bestimmten Gruppe konzentriert, würde sie deren Kontrolle durch eine kleine, regierende Partei oder eine Handvoll Unternehmen festigen.
KI, die mächtig genug ist, um große Teile der politischen, sozialen und finanziellen Wirtschaft zu beherrschen, ist leider auch mächtig genug, um dies im Alleingang zu tun. Unkontrollierte künstliche Superintelligenze könnte rasch bestehende Systeme übernehmen und immer mehr Macht und Ressourcen anhäufen, um ihre Ziele zu erreichen - auf Kosten menschlichen Wohlergehens und menschlicher Kontrolle, was schnell zu unserer fast vollständigen Entmachtung oder sogar Auslöschung führen könnte.
KI-getriebene extreme Machtkonzentration stellt eine katastrophale Bedrohung dar. Deshalb setzt sich das FLI aktiv für die Stärkung demokratischer Institutionen und Entscheidungsprozesse, die Schaffung und Stärkung wettbewerbsfähiger Märkte mit einer Vielzahl von Teilnehmern und die Befähigung des Individuums ein.
Zu den erwähnenswerten Beispielen für unsere Arbeit zu diesem Thema gehören:
- Konsequentes und nachdrückliches Eintreten für KI-Regulierung und -Überwachung gegen den erbitterten Widerstand der Big-Tech-Lobby. Ein Beispiel dafür war unser erfolgreicher Vorstoß, Foundation-Modelle in den Geltungsbereich des AI-Act der EU aufzunehmen und dann auf dessen Aufnahme zu drängen.
- Zusammenarbeit mit Initiativen zur Verbesserung der Wissens-Infrastruktur wie der Improve The News Foundation und Metaculus, die darauf abzielen, den Zugang zu zuverlässigen Informationen über die Welt zu erleichtern und zu demokratisieren, trotz der Bemühungen mächtiger Unternehmen, Regierungen und Interessengruppen, die Narrative zu kontrollieren.
- Unterstützung und Finanzierung von Bemühungen, die bei der Schaffung demokratischer Mechanismen und der Erhöhung vom Beteiligung an Ausrichtung und Kontrolle von KI-Systemen helfen, wie z. B. das Collective Intelligence Project und das AI Objectives Institute.
- Entwicklung von Institutionen und Mechanismen zur fairen und gerechten Verteilung riesiger Kapitalströme, die durch die Entwicklung und den Einsatz fortschrittlicher KI ausgelöst werden, um die verheerenden Auswirkungen extremer Ressourcenkonzentration zu bekämpfen - insbesondere unser laufendes Projekt Windfall Trust.
- Ein neues Förderprogramm von bis zu 5 Mio. USD zur Unterstützung von Projekten, die sich direkt mit den Gefahren der Machtkonzentration befassen, sowie von Initiativen zur Förderung bestehender und neuer (und möglicherweise KI-gestützter) Demokratisierungsmechanismen.
Entwicklungspause für forgeschrittene KI
Die Entwicklung von KI-Systemen, die die Fähigkeiten menschlicher Experten bei allgemeinen Aufgaben übertreffen, birgt enorme Risiken. Im besten Fall würden solche Systeme eine "zweite Spezies" von Intelligenz darstellen, die große Teile der Menschheit entmachten würde, da Arbeit, Planung, Kulturerzeugung und wahrscheinlich auch viele Entscheidungen an Maschinen delegiert würden. Schlimmstenfalls könnten diese Systeme täuschen, eigene Ziele entwickeln und verfolgen, Sicherheitsvorkehrungen umgehen, sich exponentiell selbst verbessern, sich replizieren und die Menschheit verdrängen. Superintelligente Systeme sind durch bestehende Institutionen wahrscheinlich unvorhersehbar, unkontrollierbar, unausrichtbar und unregierbar. Wenn sie falsch ausgerichtet oder missbraucht werden, stellt dies eine existenzielle Bedrohung für die Menschheit dar, entweder durch endgültige Entmachtung oder tatsächliche Auslöschung.
Trotz dieser weithin anerkannten Bedrohung wird KI derzeit auf unsichere, unkontrollierte Weise ohne substanzielle Regierungsvorgaben entwickelt. Jeder neue Trainingslauf stellt ein Experiment dar, weil die Fähigkeiten und Risiken der nächsten Generation von Systemen nicht vorhergesagt werden können. Dies ist inakzeptabel, insbesondere angesichts von Umfragen, die wiederholt eine weit verbreitete Besorgnis über das Tempo und die Rücksichtslosigkeit fortgeschrittener KI-Entwicklung aufzeigen. Das FLI hat eine Pause für solche neuen Trainingsläufe gefordert und unterstützt diese Idee auch weiterhin, bis angemessene Aufsichts-, Sicherheits- und Regulierungsmechanismen vorhanden sind.
Das Ziel dieser Experimente ist vielen KI-Unternehmen zufolge die Entwicklung von übermenschlicher AGI (künstliche allgemeine Intelligenz). Vor diesem Hintergrund unterstützt das FLI ein Moratorium für die Entwicklung solcher übermenschlicher AGI oder superintelligenter Systeme für mindestens 15 Jahre und so lange, bis sie mit zufriedenstellenden und nachweisbaren Sicherheitsgarantien durchgeführt werden können, die ihren enormen Risiken angemessen sind.
Diese Entwicklung sollte auch von einem bedeutungsvollen partizipatorischen Prozess globaler Beratung und Zustimmung begleitet werden. Die Risiken dieser Systeme werden von allen getragen, und deshalb müssen wir uns dafür einsetzen, eine Vielzahl von Stimmen aus aller Welt in die Entwicklung dieser Systeme einzubeziehen. Unsere gemeinsame Zukunft sollte nicht von einer Handvoll Tech-Milliardäre entschieden werden.
Zu den erwähnenswerten Beispielen für unsere Arbeit zu diesem Thema gehören:
- Im März 2023 veröffentlichte das FLI einen offenen Brief, in dem eine sechsmonatige Pause für große KI-Experimente gefordert wurde und der von über 30.000 Personen unterzeichnet wurde, darunter viele der weltweit führenden Experten, Technologen und Branchenführer. Der Brief sorgte weltweit für Schlagzeilen und schlug Alarm angesichts des außer Kontrolle geratenen Wettlaufs um die Entwicklung immer leistungsfähigerer und riskanterer Systeme, was wiederum weltweit Gespräche über Regulierungen in Gang setzte.
- Das FLI berät und arbeitet mit den Organisatoren wichtiger KI-Konferenzen zusammen, wie z. B. der internationalen Reihe von KI-Sicherheitsgipfeln, die im Dezember 2023 in Großbritannien begann, um sicherzustellen, dass die Risiken des Wettlaufs um die Entwicklung immer leistungsfähigerer und riskanterer fortschrittlicher Systeme ohne ausreichende Schutzmaßnahmen in die Diskussionen einbezogen werden. Dazu gehört auch die Veröffentlichung unseres detaillierten Vergleichs verschiedener konkurrierender Vorschläge für die KI-Sicherheit. Wir haben die Schwächen der "Responsible Scaling"-Ansätze aufgezeigt, die lediglich eine freiwillige Selbstbeschränkung unter starkem Wettbewerbsdruck fordern, nachdem die Gefahr offensichtlich ist. Als Alternative hat das FLI einen Policy-Vorschlag für Sicherheitsstandards eingebracht, nach dem Sicherheitsanforderungen vor der Skalierung durchsetzt würden.
- Erstellung und Verbreitung von Medien zur Veranschaulichung künstlicher Superintelligenz und ihrer Auswirkungen, um die Öffentlichkeit zu sensibilisieren und angemessene politische Reaktionen zu fördern, einschließlich unserer Kommunikations- und Werbekampagne "Before it Controls Us" (zu deutsch: "Bevor Sie Uns Kontrolliert") im Vorfeld des KI-Sicherheitsgipfels im UK.
- Erstellung und Veröffentlichung von Material, in dem die Risiken der Entwicklung künstlicher Superintelligenz, die Notwendigkeit überprüfbarer Sicherheitsmaßnahmen und die Vorteile der Entwicklung kontrollierbarer, eng definierter Systeme erläutert werden. Dazu gehört das Buch Life 3.0 von FLI Präsident Max Tegmark und Close the Gates to an Inhuman Future (zu deutsch: "schließt die Tore zu einer unmenschlichen Zukunft")von FLI Executive Director Anthony Aguirre.
Menschliches Empowerment
Künstliche Intelligenz kann unglaublichen Nutzen bringen, hartnäckige globale Probleme lösen und inspirierende Zukunftsvisionen verwirklichen. Die große Mehrheit dieser Vorteile erfordert jedoch keine künstliche Superintelligenz und die damit verbundenen massiven Risiken.
Wie wir bereits gesehen haben, bergen bestehende KI-Systeme mit allgemeinen Verwendungszwecken das Potenzial, Gesundheit, Wissenschaft, Produktivität und vieles mehr grundlegend und nutzbringend zu verändern, wenn sie durch spezielles Training gestärkt werden.
Dieses transformative Empowerment kann heute beginnen. Wir sind bereits in der Lage, KI für die Forschung an Heilmitteln für viele Krankheiten zu nutzen, mit ihrer Hilfe jedem Kind auf der Welt individuelle Nachhilfe zu geben, saubere Energielösungen anzustreben und unzählige Innovationen zu verwirklichen. Um dies zu erreichen, müssen wir jedoch bewusst in die Entwicklung von KI investieren, die spezifische Probleme lösen und identifizierbare Ziele erreichen kann (z. B. die Ziele für nachhaltige Entwicklung).
Bisherige KI-Investitionen konzentrierten sich jedoch weitgehend auf das Streben nach Macht und nicht auf die Lösung von Problemen: Es wurden sehr allgemeine Systeme entwickelt, die Menschen in möglichst vielen Bereichen ersetzen können, anstatt sich an bestimmten Problemstellungen zu orientieren. Trotz Versprechungen von Überfluss und vagen Vorhersagen über eine utopische Zukunft haben die führenden KI-Unternehmen relativ wenig investiert, um einen erkennbaren Nutzen zu erzielen oder spezifische Probleme zu lösen. Sie geben weiterhin vage Versprechungen über zukünftigen Wohlstand, der durch KI geschaffen wird, aber die Geschichte gibt wenig Grund zu der Annahme, dass dieser Wohlstand auch geteilt wird. Stattdessen schüren Arbeitsmarktprognosen und auseinanderdriftende Lebensstandards wachsende Besorgnis und weit verbreitete Unzufriedenheit: Immer mehr Menschen sehen sich wirtschaftlich ersetzt, während eine kleine Gruppe von Unternehmen Reichtum auf Kosten von Arbeitsplätzen hortet.
Wir sollten KI einsetzen, um der Menschheit bei ihrer Entfaltung zu helfen und nicht, um Menschen zu ersetzen und zu entmachten. Leistungsstarke KI-Systeme wurden nicht durch den Einfallsreichtum einer Handvoll führender KI-Unternehmer geschaffen, sondern durch eine diverse Gruppe von Forschern (die größtenteils mit öffentlichen Mitteln ausgebildet wurden), die Systeme entwickelten, die auf der Summe menschlichen Wissens, menschlicher Kreativität und Erfahrung basieren. Wir sind der Meinung, dass die Möglichkeiten und Vorteile von KI der Menschheit offenstehen und von allen geteilt werden sollten, anstatt sich in den Händen einiger weniger zu konzentrieren.
Zu den erwähnenswerten Beispielen für unsere Arbeit zu diesem Thema gehören:
- Finanzierung von Forschungsarbeiten darüber, wie künstliche Intelligenz genutzt werden kann, um die Welt durch die Lösung spezifischer Probleme zu verbessern, z. B. im Rahmen unseres laufenden Förderprogramms Realizing Aspirational Futures (zu deutsch: "Erstrebeswerte Zukunftsvisionen Realisieren".
- Aufbau und Unterstützung von Initiativen, die Einzelpersonen und Organisationen ermutigen, sich eine plausible und erstrebenswerte Zukunft mit künstlicher Intelligenz vorzustellen und zu entwerfen, wie z. B. unser Worldbuilding-Wettbewerb und unser Podcast "Imagine A World".
- Co-Veranstaltung und Durchführung von Workshops, um inspirierende Zukunftsvisionen zu entwerfen und Institutionen, sowie Koordinationsmechanismen zu ihrer Verwirklichung neu zu konzipieren, wie z. B. der Existential Hope Hackathon und der Workshop zu KI-Pfaden von Metaculus.
- Erstellung und Veröffentlichung von Forschungsarbeiten, die die Möglichkeiten der KI zur Verwirklichung wichtiger globaler Ziele aufzeigen, wäre sie ausreichend zielgerichtet entwickelt, mit überprüfbaren Sicherheitsmaßnahmen versehen und von den Behörden überwacht. Ein Beispiel dafür ist "Die Rolle künstlicher Intelligenz bei der Erreichung der Ziele für nachhaltige Entwicklung" mit FLI Präsident Max Tegmark.
Künstliche Intelligenz ist einer unserer Haupt- Problembereiche - eine Einführung finden Sie in unserem Themenprofil. Lesen Sie über unsere Mission, um zu erfahren, warum wir uns auf diese Themen konzentrieren, oder entdecken Sie unsere Arbeit zu diesen Themen. Erfahren Sie mehr über uns, unser Team, unsere Geschichte und unsere Finanzen.
Dieser Inhalt wurde am 27. Mai 2024 durch das Future of Life Institute veröffentlicht.
Verwandte Seiten
Haben Sie nach etwas anderem gesucht?
Hier sind ein paar andere Seiten, die Sie vielleicht finden wollten: