دعوای ایلان ماسک و سم آلتمن بر سر بهتر بودن هوش مصنوعی خود

سم آلتمن، مدیرعامل OpenAI، روز سهشنبه در واکنش به توییت ایلان ماسک پاسخ داد. ماسک در این توییت که در X منتشر شد، از مردم خواسته بود از ChatGPT استفاده نکنند و مدعی شد این سرویس با ۹ مورد خودکشی مرتبط است.
آلتمن این ادعا را گمراهکننده خواند و با اشاره به سیستم Autopilot تسلا که بیش از ۵۰ مورد مرگ را به دنبال داشته، این انتقاد را به ماسک برگرداند.
او در توییتی سه پاراگرافی نوشت: «گاهی شکایت میکنید که ChatGPT محدودیت زیادی دارد، و گاهی هم میگویید بیش از حد آزاد است. ظاهراً بیش از ۵۰ نفر در تصادفات مرتبط با Autopilot جان خود را از دست دادهاند. من فقط یک بار سوار ماشینی با Autopilot شدم، و اولین فکری که به ذهنم رسید این بود که انتشار چنین سیستمی توسط تسلا اصلاً ایمن نبوده است.»
آلتمن همچنین به پروژه چتبات ماسک، یعنی Grok، اشاره کرد و گفت: «وقتی بحث به محدودیتها و محافظها میرسد، نباید حرف بزنید.»
این تنشها در حالی رخ میدهد که ماسک از OpenAI شکایت کرده و مدعی است شرکت مأموریت غیرانتفاعی خود را رها کرده است. گزارشها حاکی است او به دنبال خسارتی تا ۱۳۴ میلیارد دلار است.
همزمان، توجه جهانی به ایمنی هوش مصنوعی افزایش یافته است. هفته گذشته، دفتر ارتباطات بریتانیا (Ofcom) تحقیقات رسمی درباره چتبات Grok آغاز کرد؛ علت آن تولید تصاویر جنسی از کودکان بود. ناظران اروپایی نیز بررسی میکنند که آیا Grok قوانین ایمنی آنلاین را نقض کرده یا نه، که فشار بیشتری بر ماسک ایجاد میکند.
OpenAI نیز در کالیفرنیا با چندین شکایت مواجه است که مدعیاند ChatGPT با خودکشی، روانپریشی و آسیبهای مالی مرتبط بوده است. منتقدان میگویند اگرچه OpenAI محدودیتهایی ایجاد کرده، اما برخی کوتاهیها و فشار برای عرضه سریع محصولات، کاربران آسیبپذیر را در معرض خطر قرار داده است.
تحلیلگران میگویند این اختلاف میان آلتمن و ماسک بخشی از یک نبرد بزرگتر برای شکلدهی به دیدگاه عمومی درباره هوش مصنوعی است. ماسک خود را مدافع هشدار درباره خطرات AI معرفی میکند، در حالی که آلتمن OpenAI را به عنوان یک نوآور مسئول نشان میدهد که تلاش میکند بدون کند کردن پیشرفت، ریسکها را مدیریت کند.
با وجود تنشها، OpenAI اعلام کرده که فعالانه به مسائل ایمنی رسیدگی میکند و تمام شکایتها را بررسی میکند تا دامنه کامل حوادث گزارششده را درک کند. سخنگوی OpenAI در نوامبر گفت: «این وضعیت بسیار غمانگیز است و ما در حال بررسی پروندهها برای فهم دقیق جزئیات هستیم.»
تحلیلگران معتقدند نحوه مدیریت این اختلاف توسط آلتمن میتواند بر شهرت OpenAI و روابط آن با نهادهای نظارتی در ماههای آینده تأثیر بگذارد.
OpenAI که در سال ۲۰۱۵ بهعنوان یک آزمایشگاه تحقیقاتی غیرانتفاعی تأسیس شد، همواره با ماسک در ارتباط بوده است. او از حامیان اولیه و عضو هیئت مدیره بود اما در ۲۰۱۸ از شرکت جدا شد. ماسک بارها رویکرد شرکت در ایمنی هوش مصنوعی را نقد کرده، در حالی که آلتمن و دیگر مدیران OpenAI توسعه سریع محصولات از جمله ChatGPT و GPT-4 را دنبال کردهاند، گاهی در تضاد با پژوهشگران ایمنی که درباره ریسکهای بالقوه هشدار داده بودند.
این تنش میان نوآوری سریع و نگرانیهای ایمنی، موضوعی تکراری در تاریخ OpenAI بوده و با موجی از استعفاهای پرسر و صدا در ۲۰۲۴ نیز برجسته شده است.






تو رو خدا نیگا کن
دغدغه ثروتمندان دنیا کجا دغدغه های ما کجا!