
حذّر جيفري هينتون، الرجل الذي يُطلق عليه الكثيرون لقب “عراب الذكاء الاصطناعي”، من أن الذكاء الاصطناعي قد يُطوّر قريبًا لغةً خاصة به ويتفوق على البشر، حيث أصدر تحذيرًا جديدًا، وهذه المرة يبدو وكأنه مُقتبس من فيلم خيال علمى، وفي حديثه عبر بودكاست “القرار الواحد”، حذّر العالم الحائز على جائزة نوبل من أن الذكاء الاصطناعي قد يُطوّر قريبًا لغةً خاصة به، لغةً لن يفهمها حتى مُبتكروها من البشر.
وأوضح هينتون: “حاليًا، تُجري أنظمة الذكاء الاصطناعي ما يُسمى بـ”التفكير التسلسلي” باللغة الإنجليزية، حتى نتمكن من تتبع ما تفعله، لكن الأمر يصبح أكثر إثارةً للخوف إذا طورت هذه الأنظمة لغاتٍ داخليةً خاصة بها للتواصل مع بعضها البعض”.
ويُشير إلى أن هذا قد يدفع الذكاء الاصطناعي إلى آفاقٍ مجهولةٍ ومُقلقة، فقد أثبتت الآلات بالفعل قدرتها على توليد أفكار “مُرعبة”، وليس هناك ما يدعو للافتراض بأن هذه الأفكار ستظل دائمًا مكتوبةً بلغةٍ يُمكننا تتبعها.
كلمات هينتون لها وزنها، فهو، في نهاية المطاف، الحائز على جائزة نوبل في الفيزياء لعام 2024، والذي مهّد عمله المبكر في مجال الشبكات العصبية الطريق لنماذج التعلم العميق وأنظمة الذكاء الاصطناعي واسعة النطاق الحالية، ومع ذلك، يقول إنه لم يُدرك المخاطر تمامًا إلا في مرحلة متأخرة من حياته المهنية.
واعترف قائلًا: “كان عليّ أن أُدرك مبكرًا ما ستكون عليه المخاطر في نهاية المطاف، لطالما اعتقدت أن المستقبل بعيد، وأتمنى لو فكرت في السلامة مبكرًا”، والآن، يُغذي هذا الإدراك المتأخر جهوده في الدفاع عن قضايا الذكاء الاصطناعي.
ويكمن أحد أكبر مخاوف هينتون في كيفية تعلم أنظمة الذكاء الاصطناعي، على عكس البشر، الذين يتعين عليهم مشاركة المعرفة بجهد، تستطيع الأدمغة الرقمية نسخ ولصق ما تعرفه في لحظة، وشرح ذلك في إذاعة بي بي سي نيوز قائلاً: “تخيل لو أن 10,000 شخص تعلموا شيئًا ما، وأدركوه جميعًا على الفور، فهذا ما يحدث في هذه الأنظمة”.
هذا الذكاء الجماعي المترابط يعني أن الذكاء الاصطناعي قادر على توسيع نطاق تعلمه بوتيرة لا يمكن لأي إنسان أن يضاهيها. تتفوق النماذج الحالية، مثل GPT4، على البشر بالفعل عندما يتعلق الأمر بالمعرفة العامة الخام. في الوقت الحالي، لا يزال المنطق هو معقلنا – لكن هذه الميزة، كما يقول هينتون، تتقلص بسرعة.
ومع أنه صريح، يقول هينتون إن الآخرين في هذا المجال أقل صراحةً بكثير، وأشار إلى أن “العديد من الأشخاص في الشركات الكبرى يقللون من شأن المخاطر”، مشيرًا إلى أن مخاوفهم الشخصية لا تنعكس في تصريحاتهم العامة، ويشير إلى أن أحد الاستثناءات البارزة هو ديميس هاسابيس، الرئيس التنفيذي لشركة جوجل ديب مايند، الذي يُنسب إليه هينتون الفضل في إبداء اهتمام حقيقي بمعالجة هذه المخاطر.
أما بالنسبة لخروج هينتون البارز من جوجل عام 2023، فيقول إنه لم يكن احتجاجًا، ويضيف: “تركتُ جوجل لأني كنتُ في الخامسة والسبعين من عمري ولم أعد قادرًا على البرمجة بفعالية، ولكن عندما غادرتُ، ربما أستطيع التحدث عن كل هذه المخاطر بحرية أكبر”.
في حين تُطلق الحكومات مبادرات مثل “خطة عمل الذكاء الاصطناعي” الجديدة التي أطلقها البيت الأبيض، يعتقد هينتون أن التنظيم وحده لن يكون كافيًا، ويُجادل بأن المهمة الحقيقية تكمن في بناء ذكاء اصطناعي “مُؤمَّن الخير”، وهي مهمة شاقة، نظرًا لأن هذه الأنظمة قد تُفكّر قريبًا بطرق لا يستطيع أي إنسان إتقانها تمامًا.
المصدر: اليوم السابع