في يوم الاثنين الموافق 22 مايو 2023، شارك حساب تم التحقق منه على تويتر يسمى "Bloomberg Feed" تغريدة تدعي وجود انفجار في البنتاغون ، مصحوبة بصورة. إذا كنت تتساءل عن علاقة هذا بالذكاء الاصطناعي (AI)، فإن الصورة كانت عبارة عن صورة تم إنشاؤها بواسطة الذكاء الاصطناعي، وسرعان ما انتشرت التغريدة على نطاق واسع وأثارت انخفاضًا قصيرًا في سوق الأسهم. كان من الممكن أن تكون الأمور أسوأ بكثير، وهو تذكير صارخ بمخاطر الذكاء الاصطناعي.ص>
مخاطر الذكاء الاصطناعي
لا يقتصر الأمر على الأخبار الكاذبة التي يجب أن نقلق بشأنها. هناك العديد من المخاطر المباشرة أو المحتملة المرتبطة بالذكاء الاصطناعي، بدءًا من تلك المتعلقة بالخصوصية والأمن وحتى قضايا التحيز وحقوق النشر. سوف نتعمق في بعض مخاطر الذكاء الاصطناعي هذه، ونرى ما يتم القيام به للتخفيف منها الآن وفي المستقبل، ونتساءل ما إذا كانت مخاطر الذكاء الاصطناعي تفوق الفوائد.ص>
الأخبار الزائفة
عندما ظهرت تقنية التزييف العميق لأول مرة، ظهرت مخاوف من إمكانية استخدامها بنية سيئة. ويمكن قول الشيء نفسه عن الموجة الجديدة من مولدات الصور بالذكاء الاصطناعي ، مثل DALL-E 2، أو Midjourney، أو DreamStudio. في 28 مارس 2023، انتشر فيروس صور تم إنشاؤها بواسطة الذكاء الاصطناعي للبابا فرانسيس مزيف يرتدي سترة بيضاء منتفخة من Balenciaga ويستمتع بالعديد من المغامرات، بما في ذلك التزلج ولعب البوكر. وما لم تدرس الصور عن كثب، كان من الصعب التمييز بين هذه الصور والشيء الحقيقي.
في حين أن المثال مع البابا كان بلا شك ممتعًا بعض الشيء، فإن الصورة (والتغريدة المصاحبة) عن البنتاغون لم تكن كذلك. الصور المزيفة التي ينشئها الذكاء الاصطناعي لديها القدرة على الإضرار بالسمعة، وإنهاء الزيجات أو الوظائف، وخلق اضطرابات سياسية، وحتى بدء الحروب إذا استخدمها الأشخاص الخطأ - باختصار، هذه الصور التي ينشئها الذكاء الاصطناعي لديها القدرة على أن تكون خطيرة للغاية إذا أسيء استخدامها.ص>
مع توفر مولدات الصور المدعومة بالذكاء الاصطناعي الآن بشكل مجاني ليستخدمها أي شخص، ويضيف Photoshop مولد صور يعمل بالذكاء الاصطناعي ببرامجها الشائعة، أصبحت فرصة التلاعب بالصور وإنشاء أخبار مزيفة أكبر من أي وقت مضى.
الخصوصية والأمان والقرصنة
تمثل الخصوصية والأمن أيضًا مصدر قلق كبير عندما يتعلق الأمر بمخاطر الذكاء الاصطناعي، حيث قام عدد من الدول بالفعل بحظر ChatGPT الخاص بشركة OpenAI. وقد حظرت إيطاليا هذا النموذج بسبب مخاوف تتعلق بالخصوصية، معتقدة أنه لا يتوافق مع اللائحة الأوروبية العامة لحماية البيانات (GDPR)، في حين حظرته حكومات الصين وكوريا الشمالية وروسيا بسبب مخاوف من نشر معلومات مضللة..ص>
لماذا إذن نشعر بالقلق الشديد بشأن الخصوصية عندما يتعلق الأمر بالذكاء الاصطناعي؟ تطبيقات الذكاء الاصطناعي وتجمع الأنظمة كميات كبيرة من البيانات للتعلم وإجراء التنبؤات. ولكن كيف يتم تخزين هذه البيانات ومعالجتها؟ هناك خطر حقيقي يتمثل في اختراق البيانات والقرصنة ووقوع المعلومات في الأيدي الخطأ.
لا تقتصر المخاطر على بياناتنا الشخصية فحسب. تعد قرصنة الذكاء الاصطناعي خطرًا حقيقيًا - لم يحدث ذلك بعد، ولكن إذا تمكن أصحاب النوايا الخبيثة من اختراق أنظمة الذكاء الاصطناعي، فقد يكون لذلك عواقب وخيمة. على سبيل المثال، يمكن للقراصنة التحكم في المركبات ذاتية القيادة، واختراق أنظمة أمان الذكاء الاصطناعي للوصول إلى مواقع آمنة للغاية، وحتى اختراق أنظمة الأسلحة باستخدام أمان الذكاء الاصطناعي.ص>
يدرك الخبراء في وكالة مشاريع الأبحاث الدفاعية المتقدمة (DARPA) التابعة لوزارة الدفاع الأمريكية هذه المخاطر ويعملون بالفعل على مشروع DARPA لضمان متانة الذكاء الاصطناعي ضد الخداع (GARD)، لمعالجة المشكلة من الألف إلى الياء. هدف المشروع هو ضمان دمج مقاومة القرصنة والتلاعب في الخوارزميات والذكاء الاصطناعي.
انتهاك حقوق الطبع والنشر
أحد مخاطر الذكاء الاصطناعي الأخرى هو انتهاك حقوق الطبع والنشر. قد لا يبدو هذا خطيرًا مثل بعض المخاطر الأخرى التي ذكرناها، ولكن تطوير نماذج الذكاء الاصطناعي مثل GPT-4 يعرض الجميع لخطر متزايد من الانتهاك.
في كل مرة تطلب فيها من ChatGPT إنشاء شيء ما لك - سواء كان ذلك مشاركة مدونة عن السفر أو اسمًا جديدًا لنشاطك التجاري - فإنك تقوم بتزويده بالمعلومات التي يستخدمها بعد ذلك للإجابة على الاستفسارات المستقبلية. قد تنتهك المعلومات التي تقدمها لك حقوق الطبع والنشر لشخص آخر، ولهذا السبب من المهم جدًا استخدام كاشف الانتحال وتحرير أي محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي قبل نشره.ص>
التحيز المجتمعي والبياني
الذكاء الاصطناعي ليس إنسانيًا، لذا لا يمكن أن يكون متحيزًا، أليس كذلك؟ خطأ. يتم استخدام الأشخاص والبيانات لتدريب نماذج الذكاء الاصطناعي وروبوتات الدردشة ، مما يعني أن البيانات أو الشخصيات المتحيزة ستؤدي إلى ذكاء اصطناعي متحيز. هناك نوعان من التحيز في الذكاء الاصطناعي: التحيز المجتمعي والتحيز البيانات.
مع وجود العديد من التحيزات في المجتمع اليومي، ماذا يحدث عندما تصبح هذه التحيزات جزءًا من الذكاء الاصطناعي؟ يمكن أن تكون لدى المبرمجين المسؤولين عن تدريب النموذج توقعات متحيزة، والتي تشق طريقها بعد ذلك إلى أنظمة الذكاء الاصطناعي..ص>
أو قد تكون البيانات المستخدمة لتدريب الذكاء الاصطناعي وتطويره غير صحيحة أو متحيزة أو تم جمعها بسوء نية. ويؤدي هذا إلى تحيز البيانات، والذي يمكن أن يكون بنفس خطورة التحيز المجتمعي. على سبيل المثال، إذا تم تدريب نظام التعرف على الوجه باستخدام وجوه الأشخاص البيض بشكل أساسي، فقد يواجه صعوبة في التعرف على وجوه الأقليات، مما يؤدي إلى إدامة الاضطهاد.
الروبوتات تتولى وظائفنا
لقد أثار تطوير برامج الدردشة الآلية مثل ChatGPT وGoogle Bard قلقًا جديدًا تمامًا يحيط بالذكاء الاصطناعي: وهو خطر الروبوتات الذي سيستولي على وظائفنا. نحن نشهد بالفعل استبدال الكتّاب في صناعة التكنولوجيا بالذكاء الاصطناعي، ويشعر مطورو البرامج بالقلق من أنهم سيفقدون وظائفهم لصالح الروبوتات، وتستخدم الشركات ChatGPT لإنشاء محتوى مدونة ومحتوى وسائط اجتماعية بدلاً من توظيف كتاب بشريين.
وفقًا لـ تقرير مستقبل الوظائف لعام 2020 الصادر عن المنتدى الاقتصادي العالمي ، من المتوقع أن يحل الذكاء الاصطناعي محل 85 مليون وظيفة في جميع أنحاء العالم بحلول عام 2025. وحتى لو لم يحل الذكاء الاصطناعي محل الكتّاب، فإنه يتم استخدامه بالفعل كأداة من قبل الكثيرين. قد يحتاج أولئك الذين يعملون في وظائف معرضة لخطر الاستعاضة عن الذكاء الاصطناعي إلى التكيف من أجل البقاء - على سبيل المثال، قد يصبح الكتاب مهندسين متخصصين في الذكاء الاصطناعي، مما يمكنهم من العمل باستخدام أدوات مثل ChatGPT لإنشاء المحتوى بدلاً من استبدالهم بهذه النماذج.
مخاطر الذكاء الاصطناعي المحتملة في المستقبل
هذه كلها مخاطر فورية أو تلوح في الأفق، ولكن ماذا عن بعض مخاطر الذكاء الاصطناعي الأقل احتمالًا والتي لا تزال محتملة والتي يمكن أن نراها في المستقبل؟ يتضمن ذلك أشياء مثل برمجة الذكاء الاصطناعي لإيذاء البشر، على سبيل المثال، الأسلحة المستقلة المدربة على القتل أثناء الحرب.
ثم هناك خطر أن يركز الذكاء الاصطناعي بشكل فردي على هدفه المبرمج، وتطوير سلوكيات مدمرة أثناء محاولته تحقيق هذا الهدف بأي ثمن، حتى عندما يحاول البشر منع حدوث ذلك.
علمتنا Skynet ما يحدث عندما يصبح الذكاء الاصطناعي واعيًا. ومع ذلك، على الرغم من أن مهندس Google، Blake Lemoine، ربما حاول إقناع الجميع بأن كان LaMDA، مُنشئ روبوتات المحادثة الذكية من Google، واعيًا في يونيو 2022، إلا أنه لا يوجد دليل حتى الآن يشير إلى صحة ذلك.
تحديات تنظيم الذكاء الاصطناعي
في يوم الاثنين الموافق 15 مايو 202، حضر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، جلسة الاستماع الأولى في الكونجرس حول الذكاء الاصطناعي ، تم التحذير، "إذا ساءت هذه التقنية، فمن الممكن أن تسوء تمامًا". أوضح OpenAI CO أنه يفضل التنظيم وقدم العديد من أفكاره الخاصة إلى جلسة الاستماع. المشكلة هي أن الذكاء الاصطناعي يتطور بهذه السرعة، ومن الصعب معرفة من أين نبدأ بالتنظيم.ص>.
يريد الكونجرس تجنب ارتكاب نفس الأخطاء التي ارتكبت في بداية عصر وسائل التواصل الاجتماعي، ويعمل فريق من الخبراء إلى جانب زعيم الأغلبية في مجلس الشيوخ تشاك شومر بالفعل على اللوائح التي تتطلب من الشركات الكشف عن مصادر البيانات التي استخدمتها للتدريب النماذج ومن قام بتدريبهم. ومع ذلك، قد يستغرق الأمر بعض الوقت قبل أن تتضح بالضبط كيفية تنظيم الذكاء الاصطناعي، ولا شك أنه سيكون هناك رد فعل عنيف من شركات الذكاء الاصطناعي.ص>
تهديد الذكاء العام الاصطناعي
هناك أيضًا خطر إنشاء ذكاء اصطناعي عام (AGI) يمكنه إنجاز أي مهام يمكن أن يؤديها إنسان (أو حيوان). غالبًا ما يتم ذكره في أفلام الخيال العلمي، وربما لا نزال على بعد عقود من مثل هذا الإبداع، ولكن إذا قمنا بإنشاء الذكاء الاصطناعي العام، فقد يشكل ذلك تهديدًا للبشرية.ص>
تؤيد العديد من الشخصيات العامة بالفعل الاعتقاد بأن الذكاء الاصطناعي يشكل تهديدًا وجوديًا للبشر، بما في ذلك ستيفن هوكينج، وبيل جيتس، وحتى الرئيس التنفيذي السابق لشركة Google إريك شميدت، الذي ذكر أن "الذكاء الاصطناعي يمكن أن يشكل مخاطر وجودية وتحتاج الحكومات إلى معرفة كيفية القيام بذلك". للتأكد من عدم إساءة استخدام التكنولوجيا من قبل الأشرار.ص>
هل الذكاء الاصطناعي خطير إذن، وهل مخاطره تفوق فوائده؟ لا تزال هيئة المحلفين غير متأكدة من هذا الأمر، ولكننا نرى بالفعل أدلة على بعض المخاطر المحيطة بنا في الوقت الحالي. ومن غير المرجح أن تؤتي المخاطر الأخرى ثمارها في أي وقت قريب، هذا إن وجدت. ومع ذلك، هناك شيء واحد واضح: لا ينبغي الاستهانة بمخاطر الذكاء الاصطناعي. ومن الأهمية بمكان أن نضمن تنظيم الذكاء الاصطناعي بشكل صحيح منذ البداية، لتقليل أي مخاطر مستقبلية والتخفيف منها.
.