دعوای ایلان ماسک و سم آلتمن بر سر بهتر بودن هوش مصنوعی خود

سم آلتمن، مدیرعامل OpenAI، روز سه‌شنبه در واکنش به توییت ایلان ماسک پاسخ داد. ماسک در این توییت که در X منتشر شد، از مردم خواسته بود از ChatGPT استفاده نکنند و مدعی شد این سرویس با ۹ مورد خودکشی مرتبط است.

آلتمن این ادعا را گمراه‌کننده خواند و با اشاره به سیستم Autopilot تسلا که بیش از ۵۰ مورد مرگ را به دنبال داشته، این انتقاد را به ماسک برگرداند.

او در توییتی سه پاراگرافی نوشت: «گاهی شکایت می‌کنید که ChatGPT محدودیت زیادی دارد، و گاهی هم می‌گویید بیش از حد آزاد است. ظاهراً بیش از ۵۰ نفر در تصادفات مرتبط با Autopilot جان خود را از دست داده‌اند. من فقط یک بار سوار ماشینی با Autopilot شدم، و اولین فکری که به ذهنم رسید این بود که انتشار چنین سیستمی توسط تسلا اصلاً ایمن نبوده است.»

آلتمن همچنین به پروژه چت‌بات ماسک، یعنی Grok، اشاره کرد و گفت: «وقتی بحث به محدودیت‌ها و محافظ‌ها می‌رسد، نباید حرف بزنید.»

این تنش‌ها در حالی رخ می‌دهد که ماسک از OpenAI شکایت کرده و مدعی است شرکت مأموریت غیرانتفاعی خود را رها کرده است. گزارش‌ها حاکی است او به دنبال خسارتی تا ۱۳۴ میلیارد دلار است.

همزمان، توجه جهانی به ایمنی هوش مصنوعی افزایش یافته است. هفته گذشته، دفتر ارتباطات بریتانیا (Ofcom) تحقیقات رسمی درباره چت‌بات Grok آغاز کرد؛ علت آن تولید تصاویر جنسی از کودکان بود. ناظران اروپایی نیز بررسی می‌کنند که آیا Grok قوانین ایمنی آنلاین را نقض کرده یا نه، که فشار بیشتری بر ماسک ایجاد می‌کند.

OpenAI نیز در کالیفرنیا با چندین شکایت مواجه است که مدعی‌اند ChatGPT با خودکشی، روان‌پریشی و آسیب‌های مالی مرتبط بوده است. منتقدان می‌گویند اگرچه OpenAI محدودیت‌هایی ایجاد کرده، اما برخی کوتاهی‌ها و فشار برای عرضه سریع محصولات، کاربران آسیب‌پذیر را در معرض خطر قرار داده است.

تحلیل‌گران می‌گویند این اختلاف میان آلتمن و ماسک بخشی از یک نبرد بزرگ‌تر برای شکل‌دهی به دیدگاه عمومی درباره هوش مصنوعی است. ماسک خود را مدافع هشدار درباره خطرات AI معرفی می‌کند، در حالی که آلتمن OpenAI را به عنوان یک نوآور مسئول نشان می‌دهد که تلاش می‌کند بدون کند کردن پیشرفت، ریسک‌ها را مدیریت کند.

با وجود تنش‌ها، OpenAI اعلام کرده که فعالانه به مسائل ایمنی رسیدگی می‌کند و تمام شکایت‌ها را بررسی می‌کند تا دامنه کامل حوادث گزارش‌شده را درک کند. سخنگوی OpenAI در نوامبر گفت: «این وضعیت بسیار غم‌انگیز است و ما در حال بررسی پرونده‌ها برای فهم دقیق جزئیات هستیم.»

تحلیل‌گران معتقدند نحوه مدیریت این اختلاف توسط آلتمن می‌تواند بر شهرت OpenAI و روابط آن با نهادهای نظارتی در ماه‌های آینده تأثیر بگذارد.

OpenAI که در سال ۲۰۱۵ به‌عنوان یک آزمایشگاه تحقیقاتی غیرانتفاعی تأسیس شد، همواره با ماسک در ارتباط بوده است. او از حامیان اولیه و عضو هیئت مدیره بود اما در ۲۰۱۸ از شرکت جدا شد. ماسک بارها رویکرد شرکت در ایمنی هوش مصنوعی را نقد کرده، در حالی که آلتمن و دیگر مدیران OpenAI توسعه سریع محصولات از جمله ChatGPT و GPT-4 را دنبال کرده‌اند، گاهی در تضاد با پژوهشگران ایمنی که درباره ریسک‌های بالقوه هشدار داده بودند.

این تنش میان نوآوری سریع و نگرانی‌های ایمنی، موضوعی تکراری در تاریخ OpenAI بوده و با موجی از استعفاهای پرسر و صدا در ۲۰۲۴ نیز برجسته شده است.

منبع
یاهو

یک دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *