خط بازار
بازار و صنعت

نامه محرمانه از پدرخوانده هوش‌مصنوعی به مدیران گوگل

به گزارش خط بازار؛ در بهار ۲۰۲۳، زمانی که رقابت شرکت‌های فناوری بر سر هوش مصنوعی به یکی از پرشتاب‌ترین دوره‌های تاریخ خود رسیده بود، خبری کوتاه اما سنگین منتشر شد: جفری هینتون، پژوهشگری که سال‌ها نامش با «یادگیری عمیق» و پیشرفت شبکه‌های عصبی گره خورده بود، همکاری رسمی خود را با گوگل پایان داد.
این خبر در ظاهر شبیه ده‌ها استعفای دیگر در صنعت فناوری بود؛ اما خیلی زود روشن شد که این کناره‌گیری قرار نیست یک جابه‌جایی شغلی معمولی باشد.آنچه در روزها و هفته‌های بعد رخ داد، روایتی تدریجی از نگرانی، تغییر باور و شکستن یک سکوت حرفه‌ای بود که بر افکار عمومی و گفت‌وگوی جهانی درباره هوش مصنوعی اثر گذاشت.

فاصله میان پیشرفت نظری و کاربرد گسترده از میان رفت

چند ماه پیش از استعفا، جهان فناوری در شوک عمومی شدن مدل‌های مولد به سر می‌برد. ابزارهایی که تا پیش از آن در آزمایشگاه‌ها و مقالات دانشگاهی باقی مانده بودند، ناگهان در دسترس میلیون‌ها کاربر قرار گرفتند.تولید متن، تصویر و صدا با کیفیتی که تشخیص آن از محتوای انسانی دشوار بود، به بخشی از زندگی روزمره بدل شد.
در همین فضا، پژوهشگران باسابقه‌ای که سال‌ها درباره محدودیت‌های این فناوری سخن گفته بودند، با واقعیتی تازه روبه‌رو شدند: فاصله میان «پیشرفت نظری» و «کاربرد گسترده» تقریباً از میان رفته بود.

هینتون: دیگر آن باور قدیمی را ندارم

هینتون که دهه‌ها پیش از این، از خوش‌بین‌ترین چهره‌ها نسبت به آینده شبکه‌های عصبی به شمار می‌رفت، بعدها گفت که تصور می‌کرد رسیدن سامانه‌ها به سطحی که بتوانند در مقیاس وسیع سوء‌استفاده شوند، هنوز سال‌ها زمان می‌برد. اما سرعت تحولات، این برآورد را تغییر داد.
او در یکی از مصاحبه‌هایش صریحاً گفت دیگر آن باور قدیمی را ندارد و اکنون می‌بیند که فاصله زمانی بسیار کوتاه‌تر شده است.در نخستین روز ماه مه ۲۰۲۳، هینتون اعلام کرد که از گوگل کنار رفته است. توضیح او کوتاه بود، اما بار معنایی سنگینی داشت: کناره‌گیری برای آنکه بتواند آزادانه درباره خطرات هوش مصنوعی صحبت کند.

محدودیت‌های جایگاه شرکتی مانع هشدار شد

همین جمله، به‌سرعت به تیتر رسانه‌ها تبدیل شد. او در ادامه تأکید کرد که قصد متهم کردن گوگل را ندارد، اما محدودیت‌های جایگاه شرکتی اجازه نمی‌داد آن‌گونه که لازم می‌بیند هشدار دهد.
در روزهای بعد، هر مصاحبه، لایه‌ای تازه به این تصمیم افزود. هینتون از دشواری مهار «بازیگران بد» سخن گفت؛ از اینکه وقتی ابزاری قدرتمند در دسترس قرار می‌گیرد، جلوگیری از استفاده نادرست آن تقریباً ناممکن می‌شود.
او درباره تولید گسترده اطلاعات نادرست هشدار داد و گفت سامانه‌هایی که می‌توانند متنی قانع‌کننده تولید کنند، می‌توانند حقیقت را به شکلی بی‌سابقه مخدوش کنند.

تضاد دانشمند میان افتخار علمی و دغدغه اخلاقی

آنچه به روایت وزن بیشتری می‌داد، جایگاه گوینده بود. هینتون نه یک منتقد بیرونی، بلکه یکی از معماران اصلی این فناوری به شمار می‌رفت.اکنون همان فرد، با لحنی محتاط اما نگران، از پیامدهای مسیری سخن می‌گفت که خود در شکل‌گیری‌اش نقش داشت.
این تضاد، به‌طور طبیعی همذات‌پنداری ایجاد می‌کرد: دانشمندی که میان افتخار علمی و دغدغه اخلاقی ایستاده است.در یکی از گفت‌وگوها، او به این نکته اشاره کرد که ترس اصلی‌اش صرفاً به آینده‌ای دور مربوط نیست، بلکه به همین اکنون برمی‌گردد، به زمانی که سامانه‌ها می‌توانند باورهای عمومی را دستکاری کنند.

شایعه «نامه محرمانه» به ابهام دامن زد

هشدار او درباره احتمال «باهوش‌تر شدن» این سیستم‌ها از انسان‌ها، بیشتر از آنکه یک پیش‌بینی علمی باشد، اعترافی به تغییر نگاه شخصی‌اش بود.واکنش گوگل محتاطانه بود. مدیران ارشد شرکت تأکید کردند که به توسعه مسئولانه هوش مصنوعی متعهدند و همزمان با نوآوری، به درک ریسک‌های نوظهور می‌پردازند.
اما همزمان، در فضای رسانه‌ای، روایت‌های دیگری شکل گرفت؛ روایت‌هایی که از اختلافات درونی و هشدارهای پیشینی سخن می‌گفتند.در همین فضا، شایعه‌ای به تدریج دهان‌به‌دهان شد: اینکه هینتون پیش از استعفا، نامه‌ای محرمانه خطاب به مدیران نوشته و در آن درباره خطر «کنترل‌ناپذیری» هوش مصنوعی هشدار داده است.

بیانیه عمومی در امتداد هشدارهای هینتون منتشر شد

این روایت، هرچند جذاب، هرگز با متن یا سندی منتشرشده همراه نشد. خودِ نبودِ سند، به بخشی از روایت تبدیل شد؛ پرسشی که بی‌پاسخ ماند و به ابهام دامن زد.همزمان با انتشار مصاحبه‌های هینتون، موجی از بیانیه‌ها و نامه‌های عمومی در جامعه فناوری شکل گرفت.
گروهی از پژوهشگران و مدیران، در نامه‌هایی خواستار توجه جدی به ریسک‌های هوش مصنوعی شدند. آن‌ها خطر این فناوری را در کنار تهدیدهایی مانند همه‌گیری‌ها یا جنگ‌های هسته‌ای قرار دادند.

استعفای یک دانشمند، گفت‌وگو را از محافل تخصصی خارج کرد

هرچند این بیانیه‌ها مستقل از استعفای هینتون بودند، اما زمان‌بندی‌شان باعث شد افکار عمومی آن‌ها را در امتداد همان هشدارها ببیند.در این میان، رسانه‌ها نقش پررنگی داشتند. هر نقل قول، هر جمله کوتاه از مصاحبه‌ها، به تیترهایی تبدیل شد که بحث را از محافل تخصصی به گفت‌وگوی عمومی کشاند.
استعفای یک دانشمند، به نقطه عطفی بدل شد که نشان می‌داد نگرانی درباره هوش مصنوعی دیگر صرفاً موضوعی آکادمیک نیست.

اعتراف به اشتباه، اعتبار سخنان هینتون را افزایش داد

در روایت این رویدادها، فراز اصلی زمانی شکل گرفت که هینتون آشکارا از تغییر باورش سخن گفت. اعتراف به اینکه پیش‌بینی‌های قبلی‌اش اشتباه بوده، به سخنان او اعتبار خاصی بخشید.این تغییر نگاه، خود یک رابطه علت و معلولی را آشکار می‌کرد: پیشرفت سریع‌تر از انتظار، موجب بازنگری در ارزیابی ریسک‌ها شده است.
او در گفت‌وگویی توضیح داد که زمانی تصور می‌کرد سیستم‌ها به این زودی‌ها به سطحی نمی‌رسند که تهدیدی جدی ایجاد کنند، اما اکنون شواهد خلاف آن را نشان می‌دهد.

آینده نشان خواهد داد که سرنوشت این هشدارها چه خواهد شد

با فروکش کردن موج اولیه خبرها، آنچه باقی ماند، مجموعه‌ای از پرسش‌ها بود. آیا هشدارهای هینتون مسیر توسعه هوش مصنوعی را تغییر خواهد داد؟ آیا شرکت‌ها به‌طور عملی سرعت را کم خواهند کرد یا فشار رقابت اجازه چنین کاری را نمی‌دهد؟روایت حرفه‌ای ناچار است تمایز میان گفته‌های ثبت‌شده و شایعات تأییدنشده را حفظ کند.
در این چارچوب، «نامه مخفی» نه به‌عنوان واقعیت، بلکه به‌عنوان نشانه‌ای از عطش عمومی برای یافتن توضیحی ساده‌تر برای یک تصمیم پیچیده مطرح می‌شود.
مهم‌ترین اثر، تغییر لحن گفت‌وگو بودروایت استعفای جفری هینتون، با یک نقطه پایان روشن خاتمه نمی‌یابد. سه‌گانه علیت، زمان‌بندی و شخصیت، در این ماجرا به هم گره خورده‌اند: پیشرفت شتابان فناوری، تصمیم فردی یک دانشمند، و پیامدهای اجتماعی آن.در نهایت، شاید مهم‌ترین اثر این رویداد، نه در سیاست‌گذاری‌های فوری، بلکه در تغییر لحن گفت‌وگو باشد.
وقتی یکی از سازندگان اصلی فناوری می‌گوید باید مکث کرد و دوباره اندیشید، این جمله به‌تنهایی کافی است تا توجه‌ها را جلب کند. روایت همچنان باز است و آینده نشان خواهد داد که این هشدارها به چه سرنوشتی دچار می‌شوند.
منبع: فارس

دیدگاه خود را بنویسید