Skip to content
All Open Letters

أوقفوا تجارب الذكاء الاصطناعي العملاقة: رسالة مفتوحة

ندعو كافة المختبرات المعنية بالذكاء الاصطناعي إلى التوقف فورا عن تدريب أنظمة الذكاء الاصطناعي الأقوى من GPT-4
Signatures
31810

This open letter was originally published in English here.

تاريخ النشر: 22 مارس/آذار 2023

يمكن أن تشكّل أنظمة الذكاء الاصطناعي ذات القدرات المنافسة للبشر مخاطر جسيمة على المجتمع والانسانية، كما يتضح من خلال عديد البحوث [1] وكما تقر به كبريات مختبرات الذكاء الاصطناعي [2]. وكما هو مذكور في مبادئ الذكاء الاصطناعي المقترنة بمؤتمر أسيلومار  Asilomar AI Principlesوالمُعتمَدة على نطاق واسع، فإن الذكاء الاصطناعي المتقدم قد يحدث تغييرا عميقا في تاريخ الحياة على الأرض، وعليه، ينبغي التخطيط له وإدارته بالعناية والموارد المناسبة. ولسوء الحظ، فإن هذا المستوى من التخطيط والإدارة لم يتحقّق، على الرغم من أن الأشهر الأخيرة شهدت دخول مختبرات الذكاء الاصطناعي سباقًا غير خاضع للسيطرة يهدف إلى تطوير ونشر عقول رقمية أكثر قوة من أي وقت مضى لا يقدر أي كانولا حتى مبتكروهاعلى فهمهما أو التنبؤ بمسارها أو التحكم فيها بشكل موثوق.

لقد أضحت أنظمة الذكاء الاصطناعي المعاصرة قادرة على منافسة البشر في المهام العامة [3]، وحريّ بنا أن نتساءل: هل يجب أن نترك قنوات معلوماتنا عرضة لسيل من الدعاية والأكاذيب الصادرة عن الآلات؟ هل من الحكمة أن ندع الآلة تستحوذ على كافة الوظائف، بما فيها تلك التي تعطينا إحساسا بالرّضا؟ هل يجب أن نطور عقولًا غير بشرية مآلها أن تتفوق علينا عددا وذكاء وتُنهي صلاحياتنا وتحل محلّنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟ لا ينبغي تفويض هذه القرارات لقادة تكنولوجيا غير منتخبين ولا يحسن تطوير أنظمة ذكاء اصطناعي قوية الا عندما نكون واثقين من أن تأثيراتها سوف تكون إيجابية وأن مخاطرها خاضعةٌ للسيطرة. يجب أن تكون هذه الثقة مبررة بشكل جيد وأن تتعاظم بقدر حجم تأثيرات النظام المحتملة. ينص البيان الأخير لشركة أوبن أي آي OpenAI حول الذكاء العام الاصطناعي على ما يلي: قد يكون من المهم الحصول في مرحلة ما على مراجعة مستقلة تسبق الشروع في تدريب أنظمة مستقبلية كما أنه من المهم أن يتوصل أصحاب الجهود الأكثر تقدما إلى اتفاق يتم بموجبه الحد من معدل نمو الحوسبة الهادفة لابتكار نماذج جديدة.” نحن موافقون على هذا ونرى أننا بلغنا هذه المرحلة.

لذلك، فإننا ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف الفوري عن تدريب أنظمة ذكاء اصطناعي أقوى من جي بي تي GPT-4 لمدة لا تقل عن ستة أشهر. يجب أن يكون هذا التوقف علنيًا وقابلًا للتحقق وشاملا لكل الجهات الفاعلة. وإن تعذر سنّ مثل هذا التوقف بسرعة، يجب على الحكومات التدخل وفرض حظر مؤقت.

يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدام هذا التوقف لصياغة وتنفيذ مجموعة من بروتوكولات السلامة المشتركة اللازمة لتصميم وتطوير الذكاء الاصطناعي المتقدم يدققها ويشرف عليها خبراء خارجيون ومستقلون. يجب أن تضمن هذه البروتوكولات أن الأنظمة التي تلتزم بها آمنة بما لا يدع مجالا للشك [4]. هذا لا يعني توقفًا عن تطوير الذكاء الاصطناعي بشكل عام، بل هو مجرد تراجع عن السباق الخطير نحو نماذج مجهولة غير قابلة للتنبؤ وذات أنساق متزايدة وقدرات ناشئة.

يجب إعادة توجيه بوصلة بحوث الذكاء الاصطناعي وتطويره في اتجاه جعل النظم الحالية الصلبة أكثر دقة وأمانا وقابلية للتفسير وكذلك شفافة ومتينة، ومتسقة، وجديرة بالثقة والولاء.

بالتوازي مع ذلك، يجب على مطوّري الذكاء الاصطناعي العمل مع صانعي السياسات للتسريع بشكل دراماتيكي في تطوير أنظمة حوكمة قوية للذكاء الاصطناعي. وعلى أقل تقدير، ينبغي أن تتضمن هذه التدابير ما يلي: سلطات تنظيمية جديدة ومؤهلة مكرسة للذكاء الاصطناعي، ومراقبة أنظمة الذكاء الاصطناعي عالية القدرة والمجمّعات الكبرى للقدرات الحاسوبية وتعقبها، وأنظمة المصدر والوسم المائي للمساعدة في التمييز بين ما هو حقيقي وما مصنّع وتعقب النماذج المسرّبة، ونظام بيئي متين للتدقيق والتوثيق، والمسؤولية عن الأضرار الناجمة عن الذكاء الاصطناعي، وتمويل عام قوي لبحوث السلامة التقنية للذكاء الاصطناعي، ومؤسسات ذات موارد جيدة للتعامل مع الاضطرابات الاقتصادية والسياسية الهائلة (خاصة تلك التي تهم الديمقراطية) التي سوف يسببها الذكاء الاصطناعي.

يمكن للإنسانية أن تتمتع بمستقبل زاهر مع الذكاء الاصطناعي. بعد أن نجحنا في إنشاء أنظمة ذكاء اصطناعي قوية، حقّ لنا الآن الاستمتاع بــصيف ذكاء اصطناعينحصد فيه المكافآت، ونهندس هذه الأنظمة لتحقيق منفعة واضحة للجميع، ونمنح المجتمع فرصة للتكيّف. لقد سبق وأن توقف المجتمع مؤقتا عن تطوير تقنيات أخرى كانت تحمل آثاراً كارثية محتملة عليه [5]. الآن، يمكننا القيام بنفس الشيء. دعونا نستمتع بصيف طويل للذكاء الاصطناعي، وليس الاندفاع والسقوط دون استعداد.

هذه بعض الأسئلة الشائعة إجابة على تساؤلات ونقاشات تم التطرق إليها في وسائل الإعلام وغيرها. يمكنك الاطلاع على هذه الأسئلة هنا.

بإضافة إلى هذه الرسالة المفتوحة، نشرنا مجموعة من التوصيات السياسية التي يمكن الاطلاع عليها هنا:

عرض الورقة

صنع السياسات أثناء فترة التوقف

12th April 2023

يمكنك أيضًا تنزيل هذه الرسالة المفتوحة كملف PDF..

[1]

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[3]

Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4]

Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".

[5]

Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

Signatories


View the full list of signatories

Attempting to load the full list of signatories on a mobile device or slow internet connection might cause formatting issues.

Read More
OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
1

Carta aberta convocando os líderes mundiais a demonstrarem liderança com visão de longo prazo em relação às ameaças existenciais

O The Elders, Future of Life Institute e uma gama diversificada de cossignatários solicitam aos decisores uma abordagem urgente aos impactos contínuos e riscos crescentes da crise climática, pandemias, armas nucleares e da IA não governada.
February 14, 2024
Signatories
1

Offener Brief, der die Staatsoberhäupter und Führungskräfte der Welt auffordert, bei existenziellen Bedrohungen eine langfristig ausgerichtete Führungsrolle zu übernehmen

The Elders, das Future of Life Institute und eine vielfältige Gruppe von Mitunterzeichnenden fordern Entscheidungsträger und Entscheidungsträgerinnen dazu auf, die andauernden Auswirkungen und eskalierenden Risiken von Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI dringend anzugehen.
February 14, 2024
Signatories
1

رسالة مفتوحة تدعو قادة العالم إلى إظهار قيادة بعيدة النظر بشأن التهديدات الوجودية

يحث الشيوخ ومعهد مستقبل الحياة ومجموعة متنوعة من الموقعين المشاركين صناع القرار على معالجة التأثير المستمر والمخاطر المتصاعدة لأزمة المناخ والأوبئة والأسلحة النووية والذكاء الاصطناعي غير الخاضع للحكم بشكل عاجل.
February 14, 2024
Signatories
1

Lettre ouverte appelant les dirigeants mondiaux à faire preuve de leadership à long terme face aux menaces existentielles

Les Elders, le Future of Life Institute et une gamme diversifiée de cosignataires exhortent les décideurs à aborder de toute urgence à l’impact continu et les risques croissants de la crise climatique, des pandémies, des armes nucléaires et de l’IA non gouvernée.
February 14, 2024

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram