خط بازار
هوش مصنوعی

مایکروسافت به نیروی عملیاتی اسرائیل تبدیل شد

به گزارش خط بازار؛ طی دو سال گذشته، و به ویژه از پاییز سال ۲۰۲۳ به بعد، فناوری‌های تجاری «رایانش ابری»، مدل‌های «هوش مصنوعی» و ابزارهای نظارتی ساخته شده توسط شرکت‌های بزرگ جهانی، به آرامی از محیط‌های آزمایشی و تجاری بیرون کشیده شدند.
این ابزارها مستقیماً به حلقه‌های تصمیم‌گیری نظامی و اطلاعاتی راه یافتند.اسنادی که رسانه‌های تحقیقی و سازمان‌های «حقوق بشری» منتشر کردند، زنجیره‌ای از قراردادها، پشتیبانی فنی و استفاده میدانی از این فناوری‌ها را نشان می‌دهد.
این وضعیت سوال کلیدی را در زمینه اخلاق فناوری مطرح می‌کند: وقتی مهارت ما در پردازش داده‌ها و تشخیص الگوها در اختیار ارتش‌ها قرار می‌گیرد، چه کسی مسئول هزینه‌های انسانی ناشی از خطاها و سوگیری‌ها خواهد بود؟
پروژه نیمبوس، نقطه آغاز همکاری ابر و امنیت بود
در سال ۲۰۲۱ شرکت‌های «گوگل» و «آمازون» قراردادی را با «رژیم اسرائیل» امضا کردند که رسانه‌ها آن را «پروژه نیمبوس» نامیدند. این قرارداد تقریباً ۱.۲ میلیارد دلار ارزش داشت و هدف آن ارائه خدمات «ابری» و ابزارهای «یادگیری ماشینی» به نهادهای «رژیم» و وزارتخانه‌ها بود.
آنچه در نگاه اول یک قرارداد فنی و تجاری به نظر می‌رسید، برای بسیاری دیگر نشانه‌ای از پیوند عمیق میان بخش خصوصی فناوری و ماشین امنیت رژیم صهیونیستی است.
این خدمات شامل میزبانی داده‌ها، فراهم‌سازی توان محاسباتی برای آموزش یا اجرای مدل‌ها، و ارائه ابزارهای تحلیل تصویر و ویدیو است که در عرصه امنیتی کاربرد مستقیم می‌یابند.
گزارش‌های تحقیقی و افشاگری داخلی کارکنان شرکت‌ها نشان می‌دهد که بندهای قرارداد و مفاد فنی، نگرانی‌های جدی در مورد استفاده احتمالی نظامی و نقض «حقوق بشر» برانگیخته است. این نگرانی‌ها به دلیل ماهیت خدمات و استفاده‌کنندگان نهایی آن، کاملاً قابل درک بوده‌اند.

پازل مستند، ظرفیت‌های محاسباتی برای اهداف نظامی را نشان داد

متن کامل پیوست‌ها و برخی بندهای حساس قرارداد معمولاً در دسترس عمومی قرار ندارد. بنابراین، آنچه ما از «نیمبوس» می‌بینیم یک تکه‌پازل مستند است که از اعلامیه‌های رسمی، «نامه‌های الکترونیک» داخلی منتشر شده و گزارش‌های تحقیقی کنار هم قرار گرفته است.
اما حتی از همین تکه‌ها نیز روشن است که ظرفیت محاسباتی و خدمات «هوش مصنوعی ابری» می‌تواند به آسانی در تحلیل سریع حجم عظیمی از داده‌های اطلاعاتی به کار رود. این توانایی یک مزیت راهبردی در زمان جنگ محسوب می‌شود.
کاری که در میدان نبرد معنای جستجوی هدف و تعیین اقدام نظامی را دارد، به طور فزاینده‌ای توسط این ظرفیت‌های محاسباتی هدایت می‌شود. توانایی پردازش سریع داده‌ها می‌تواند فاصله میان شناسایی هدف و تصمیم‌گیری برای اقدام را به شدت کاهش دهد.
پشتیبانی فنی، عملیات میدانی ارتش اسرائیل را تسهیل کرد
در ژانویه سال ۲۰۲۵، روزنامه «گاردین» مجموعه‌ای از اسناد لو رفته را منتشر کرد که نشان می‌داد شرکت «مایکروسافت» در جریان عملیات‌های اخیر، پشتیبانی فنی و دسترسی به سرویس‌های «آزور» را در اختیار واحدهایی از ارتش رژیم اسرائیل قرار داده است.
این نوع کمک فراتر از یک همکاری تجاری ساده است.شرکت این پشتیبانی را «هزاران ساعت مشاوره فنی» و صدها «ترابایت» فضای ذخیره‌سازی گزارش کرده است.
این نوع همکاری، حتی اگر به گرانی مالی قراردادهای بزرگ نباشد، در سطح عملکردی تفاوت مشخصی ایجاد می‌کند و تاثیر مستقیم در عملیات نظامی دارد.این خدمات باعث بهبود زمان پاسخ، پردازش «همزمان» تصاویر و صوت، و توان تحلیل سریع مجموعه‌های بزرگ اطلاعاتی می‌شود.
گزارش‌های تحقیقی و مصاحبه‌ها می‌گویند این زیرساخت‌ها برای تحلیل مکالمات، پردازش سیگنال‌های ارتباطی و کمک به برنامه‌ریزی عملیات به کار گرفته شده‌اند.

ابزارهای پنهان، امکان دسترسی مستقیم به دستگاه‌های هدف را فراهم آوردند

ابزارهای جاسوسی و «بدافزارهای» پیشرفته، نمونه دیگری از آن چیزی است که نقاط تاریک این تعامل را می‌سازد. این ابزارها به نهادهای امنیتی اجازه می‌دهند تا داده‌ها را به صورت مستقیم از هدف استخراج کنند.
«گروه ان‌اس‌او» و محصولات مشهورش (مانند «پگاسوس») طی سال‌های اخیر در گزارش‌های بین‌المللی بارها متهم شده‌اند که برای هدف‌گیری فعالان، روزنامه‌نگاران و مدافعان «حقوق بشر» مورد استفاده قرار گرفته‌اند.
این مستندات توسط سازمان‌های «حقوق بشری» و پروژه‌های افشاگرانه رسانه‌ای منتشر شده است.این ابزارها نشان می‌دهند که در کنار پردازش «ابری» و مدل‌های «هوش مصنوعی»، امکان دسترسی مستقیم به دستگاه‌های هدف و استخراج اطلاعات شخصی برای نهادهای امنیتی «رژیم» فراهم است.
این ترکیب می‌تواند کارآیی عملیات‌های شناسایی را به طرز چشمگیری بالا ببرد و همزمان خطر «نقض حقوق بشر» را نیز شدت بخشد.
پایگاه‌های تصاویر، ظرفیت ردیابی افراد را افزایش دادند
شرکت‌های «تشخیص چهره» و پایگاه‌های عکس عظیم (مثل شرکت‌هایی که «پایگاه‌های داده» تصاویر عمومی را جمع‌آوری می‌کنند) ظرفیت بی‌سابقه‌ای برای ردیابی افراد در محیط‌های شهری یا «ایست‌های بازرسی» فراهم می‌آورند. این امر امنیت فردی را به طور جدی به خطر می‌اندازد.
گزارش‌های «سازمان‌های غیردولتی» و تحقیقات میدانی هشدار داده‌اند که چنین سیستم‌هایی، به ویژه وقتی در یک «فضای اشغالی» و تحت کنترل نظامی «رژیم» به کار روند، می‌توانند دسترسی نابرابر به «آزادی حرکت» و «امنیت فردی» را تشدید کنند. این فناوری‌ها به ابزاری برای تشدید کنترل تبدیل شده‌اند.
این سیستم‌ها به دلیل ماهیت خود، توانایی ایجاد یک «نظارت دائمی» و فراگیر را دارند، که این امر منجر به ایجاد فضایی از ترس و محدودیت‌های گسترده برای شهروندان می‌شود. تاثیر این سیستم‌ها بر زندگی روزمره ساکنان مناطق درگیر، غیرقابل انکار است.
افزایش دقت نظامی با افزایش تلفات غیرنظامی همراه شد
تحقیقات خبری مستقل نشان داده‌اند که استفاده گسترده‌تر از مدل‌ها و خدمات «هوش مصنوعی» از سوی نیروهای نظامی «رژیم» منجر به سرعت‌بخشی در «شناسایی اهداف» شده است. اما همزمان، نرخ «تلفات غیرنظامی» نیز افزایش یافته است.
این افزایش تلفات معنای مشخصی دارد: فناوری‌ها ابزار فشار بیشتر را برای شناسایی سریع فراهم می‌آورند، اما خطاها، «سوگیری داده‌ها»، ترجمه‌های نادرست یا تحلیل ناقص تصاویر می‌تواند «مرگ اشتباه» را به دنبال داشته باشد. ابزار هوشمند الزاماً به معنای تصمیم انسانی بی‌خطا نیست.
در غیاب «شفافیت فنی» و دسترسی مستقل به «گزارش‌های عملیاتی» و شواهد میدانی، دشوار است نقش دقیقی که هر ابزار مشخص در یک حادثه معین داشته، مشخص شود. با این حال، الگوی کلی نگران کننده است و بر لزوم مسئولیت‌پذیری و بررسی حقوقی تاکید می‌کند.

جزئیات فنی مفقود، رسیدن به شواهد قطعی را دشوار ساخته است

یک واقعیت عملیاتی وجود دارد: بسیاری از پیوست‌ها، «گزارش‌های عملیاتی» و جزئیات فنی که بتوانند نشان دهند یک سرویس «ابری» یا یک مدل «هوش مصنوعی» دقیقاً چگونه در یک حمله به کار رفته، در دسترس عمومی نیست. این اطلاعات محرمانه عملاً مانع از پیگیری حقوقی می‌شوند.
رسانه‌ها و «سازمان‌های غیردولتی» توانسته‌اند با اسناد لو رفته و مصاحبه‌ها، تصویر کلی و سرنخ‌ها را بسازند. اما برای محکم کردن زنجیره شواهد لازم است متونی مانند قراردادهای کامل، پیوست‌های امنیتی، «گزارش‌های کارکرد سرور» و «فایل‌های پشتیبان» بررسی شوند.
این منابع معمولاً یا محفوظ‌اند یا تنها از راه «افشاگری اختصاصی» به دست می‌آیند. به همین دلیل هر گزارش تحقیقی مسئولانه باید «محدودیت‌های مدارک علنی» را صریحاً قید کند و از ادعاهای قطعی بدون «سند فنی» خودداری ورزد.

مسئولیت شرکت‌ها، در مرز اخلاقی مبهم قرار گرفته است

شرکت‌های بزرگ فناوری مدعی‌اند که «چارچوب‌ها» و سیاست‌هایی برای جلوگیری از سوءاستفاده از محصولاتشان دارند. اما پرونده‌های اخیر نشان می‌دهد که این «چارچوب‌ها» در میانه فشارهای «رژیم» و نیازهای امنیتی یا به درستی اجرا نشده‌اند، یا پیمان‌های قراردادی صریحاً امکان استفاده نظامی را «مجاز» کرده‌اند.
اعتراضات داخلی کارکنان، شکایت‌های «حقوق بشری» و طرح‌های حقوقی بین‌المللی، همه حکایت از آن دارند که شرکت‌ها هنوز نتوانسته‌اند مرزهای اخلاقی شفافی میان «کار تجاری» و «کمک به عملیات نظامی» برقرار کنند. این مرز مبهم، زمینه‌ساز سوءاستفاده‌های آتی است.
این پرسش نه فقط حقوقی، که عمیقاً سیاسی و اخلاقی است: آیا فناوری‌ای که ساخته شده باید به سادگی در خدمت هر ماموریتی قرار گیرد؟ و اگر آسیب روی دهد، کدام نهاد باید پاسخگو باشد؟

فناوری تجاری دیگر بی‌طرف نیست و نیازمند کنترل است

مجموع شواهد علنی یک چیز را روشن می‌کند: «فناوری تجاری مدرن» دیگر «بی‌خط سیاسی» نیست. قراردادهای «ابری»، پشتیبانی فنی و ابزارهای نظارتی وقتی در میدان نبرد ترکیب می‌شوند، می‌توانند نقش تعیین‌کننده‌ای در سرنوشت انسان‌ها ایفا کنند.
آنچه لازم است، دو اقدام همزمان است: اول، «شفاف‌سازی قراردادی» و دسترسی مستقل به «اسناد فنی» و «گزارش‌های سیستمی» تا پیوند میان فناوری و تصمیم نظامی قطعی شود. این شفافیت، قدم اول برای پاسخگو ساختن شرکت‌ها است.دوم، ایجاد «چارچوب‌های حقوقی» و شرکتی که استفاده فناوری را در «موقعیت‌های درگیری» محدود و کنترل کنند.
این چارچوب‌ها باید شامل «مکانیزم‌های توقف دسترسی» شوند، در صورتی که شواهد «سوءاستفاده» یا «نقض قوانین بین‌الملل» پدیدار شود.
منبع: فارس

دیدگاه خود را بنویسید