هوش مصنوعی
مایکروسافت به نیروی عملیاتی اسرائیل تبدیل شد
به گزارش خط بازار؛ طی دو سال گذشته، و به ویژه از پاییز سال ۲۰۲۳ به بعد، فناوریهای تجاری «رایانش ابری»، مدلهای «هوش مصنوعی» و ابزارهای نظارتی ساخته شده توسط شرکتهای بزرگ جهانی، به آرامی از محیطهای آزمایشی و تجاری بیرون کشیده شدند.
این ابزارها مستقیماً به حلقههای تصمیمگیری نظامی و اطلاعاتی راه یافتند.اسنادی که رسانههای تحقیقی و سازمانهای «حقوق بشری» منتشر کردند، زنجیرهای از قراردادها، پشتیبانی فنی و استفاده میدانی از این فناوریها را نشان میدهد.
این وضعیت سوال کلیدی را در زمینه اخلاق فناوری مطرح میکند: وقتی مهارت ما در پردازش دادهها و تشخیص الگوها در اختیار ارتشها قرار میگیرد، چه کسی مسئول هزینههای انسانی ناشی از خطاها و سوگیریها خواهد بود؟
پروژه نیمبوس، نقطه آغاز همکاری ابر و امنیت بود
در سال ۲۰۲۱ شرکتهای «گوگل» و «آمازون» قراردادی را با «رژیم اسرائیل» امضا کردند که رسانهها آن را «پروژه نیمبوس» نامیدند. این قرارداد تقریباً ۱.۲ میلیارد دلار ارزش داشت و هدف آن ارائه خدمات «ابری» و ابزارهای «یادگیری ماشینی» به نهادهای «رژیم» و وزارتخانهها بود.
آنچه در نگاه اول یک قرارداد فنی و تجاری به نظر میرسید، برای بسیاری دیگر نشانهای از پیوند عمیق میان بخش خصوصی فناوری و ماشین امنیت رژیم صهیونیستی است.
این خدمات شامل میزبانی دادهها، فراهمسازی توان محاسباتی برای آموزش یا اجرای مدلها، و ارائه ابزارهای تحلیل تصویر و ویدیو است که در عرصه امنیتی کاربرد مستقیم مییابند.
گزارشهای تحقیقی و افشاگری داخلی کارکنان شرکتها نشان میدهد که بندهای قرارداد و مفاد فنی، نگرانیهای جدی در مورد استفاده احتمالی نظامی و نقض «حقوق بشر» برانگیخته است. این نگرانیها به دلیل ماهیت خدمات و استفادهکنندگان نهایی آن، کاملاً قابل درک بودهاند.
پازل مستند، ظرفیتهای محاسباتی برای اهداف نظامی را نشان داد
متن کامل پیوستها و برخی بندهای حساس قرارداد معمولاً در دسترس عمومی قرار ندارد. بنابراین، آنچه ما از «نیمبوس» میبینیم یک تکهپازل مستند است که از اعلامیههای رسمی، «نامههای الکترونیک» داخلی منتشر شده و گزارشهای تحقیقی کنار هم قرار گرفته است.
اما حتی از همین تکهها نیز روشن است که ظرفیت محاسباتی و خدمات «هوش مصنوعی ابری» میتواند به آسانی در تحلیل سریع حجم عظیمی از دادههای اطلاعاتی به کار رود. این توانایی یک مزیت راهبردی در زمان جنگ محسوب میشود.
کاری که در میدان نبرد معنای جستجوی هدف و تعیین اقدام نظامی را دارد، به طور فزایندهای توسط این ظرفیتهای محاسباتی هدایت میشود. توانایی پردازش سریع دادهها میتواند فاصله میان شناسایی هدف و تصمیمگیری برای اقدام را به شدت کاهش دهد.
پشتیبانی فنی، عملیات میدانی ارتش اسرائیل را تسهیل کرد
در ژانویه سال ۲۰۲۵، روزنامه «گاردین» مجموعهای از اسناد لو رفته را منتشر کرد که نشان میداد شرکت «مایکروسافت» در جریان عملیاتهای اخیر، پشتیبانی فنی و دسترسی به سرویسهای «آزور» را در اختیار واحدهایی از ارتش رژیم اسرائیل قرار داده است.
این نوع کمک فراتر از یک همکاری تجاری ساده است.شرکت این پشتیبانی را «هزاران ساعت مشاوره فنی» و صدها «ترابایت» فضای ذخیرهسازی گزارش کرده است.
این نوع همکاری، حتی اگر به گرانی مالی قراردادهای بزرگ نباشد، در سطح عملکردی تفاوت مشخصی ایجاد میکند و تاثیر مستقیم در عملیات نظامی دارد.این خدمات باعث بهبود زمان پاسخ، پردازش «همزمان» تصاویر و صوت، و توان تحلیل سریع مجموعههای بزرگ اطلاعاتی میشود.
گزارشهای تحقیقی و مصاحبهها میگویند این زیرساختها برای تحلیل مکالمات، پردازش سیگنالهای ارتباطی و کمک به برنامهریزی عملیات به کار گرفته شدهاند.
ابزارهای پنهان، امکان دسترسی مستقیم به دستگاههای هدف را فراهم آوردند
ابزارهای جاسوسی و «بدافزارهای» پیشرفته، نمونه دیگری از آن چیزی است که نقاط تاریک این تعامل را میسازد. این ابزارها به نهادهای امنیتی اجازه میدهند تا دادهها را به صورت مستقیم از هدف استخراج کنند.
«گروه اناساو» و محصولات مشهورش (مانند «پگاسوس») طی سالهای اخیر در گزارشهای بینالمللی بارها متهم شدهاند که برای هدفگیری فعالان، روزنامهنگاران و مدافعان «حقوق بشر» مورد استفاده قرار گرفتهاند.
این مستندات توسط سازمانهای «حقوق بشری» و پروژههای افشاگرانه رسانهای منتشر شده است.این ابزارها نشان میدهند که در کنار پردازش «ابری» و مدلهای «هوش مصنوعی»، امکان دسترسی مستقیم به دستگاههای هدف و استخراج اطلاعات شخصی برای نهادهای امنیتی «رژیم» فراهم است.
این ترکیب میتواند کارآیی عملیاتهای شناسایی را به طرز چشمگیری بالا ببرد و همزمان خطر «نقض حقوق بشر» را نیز شدت بخشد.
پایگاههای تصاویر، ظرفیت ردیابی افراد را افزایش دادند
شرکتهای «تشخیص چهره» و پایگاههای عکس عظیم (مثل شرکتهایی که «پایگاههای داده» تصاویر عمومی را جمعآوری میکنند) ظرفیت بیسابقهای برای ردیابی افراد در محیطهای شهری یا «ایستهای بازرسی» فراهم میآورند. این امر امنیت فردی را به طور جدی به خطر میاندازد.
گزارشهای «سازمانهای غیردولتی» و تحقیقات میدانی هشدار دادهاند که چنین سیستمهایی، به ویژه وقتی در یک «فضای اشغالی» و تحت کنترل نظامی «رژیم» به کار روند، میتوانند دسترسی نابرابر به «آزادی حرکت» و «امنیت فردی» را تشدید کنند. این فناوریها به ابزاری برای تشدید کنترل تبدیل شدهاند.
این سیستمها به دلیل ماهیت خود، توانایی ایجاد یک «نظارت دائمی» و فراگیر را دارند، که این امر منجر به ایجاد فضایی از ترس و محدودیتهای گسترده برای شهروندان میشود. تاثیر این سیستمها بر زندگی روزمره ساکنان مناطق درگیر، غیرقابل انکار است.
افزایش دقت نظامی با افزایش تلفات غیرنظامی همراه شد
تحقیقات خبری مستقل نشان دادهاند که استفاده گستردهتر از مدلها و خدمات «هوش مصنوعی» از سوی نیروهای نظامی «رژیم» منجر به سرعتبخشی در «شناسایی اهداف» شده است. اما همزمان، نرخ «تلفات غیرنظامی» نیز افزایش یافته است.
این افزایش تلفات معنای مشخصی دارد: فناوریها ابزار فشار بیشتر را برای شناسایی سریع فراهم میآورند، اما خطاها، «سوگیری دادهها»، ترجمههای نادرست یا تحلیل ناقص تصاویر میتواند «مرگ اشتباه» را به دنبال داشته باشد. ابزار هوشمند الزاماً به معنای تصمیم انسانی بیخطا نیست.
در غیاب «شفافیت فنی» و دسترسی مستقل به «گزارشهای عملیاتی» و شواهد میدانی، دشوار است نقش دقیقی که هر ابزار مشخص در یک حادثه معین داشته، مشخص شود. با این حال، الگوی کلی نگران کننده است و بر لزوم مسئولیتپذیری و بررسی حقوقی تاکید میکند.
جزئیات فنی مفقود، رسیدن به شواهد قطعی را دشوار ساخته است
یک واقعیت عملیاتی وجود دارد: بسیاری از پیوستها، «گزارشهای عملیاتی» و جزئیات فنی که بتوانند نشان دهند یک سرویس «ابری» یا یک مدل «هوش مصنوعی» دقیقاً چگونه در یک حمله به کار رفته، در دسترس عمومی نیست. این اطلاعات محرمانه عملاً مانع از پیگیری حقوقی میشوند.
رسانهها و «سازمانهای غیردولتی» توانستهاند با اسناد لو رفته و مصاحبهها، تصویر کلی و سرنخها را بسازند. اما برای محکم کردن زنجیره شواهد لازم است متونی مانند قراردادهای کامل، پیوستهای امنیتی، «گزارشهای کارکرد سرور» و «فایلهای پشتیبان» بررسی شوند.
این منابع معمولاً یا محفوظاند یا تنها از راه «افشاگری اختصاصی» به دست میآیند. به همین دلیل هر گزارش تحقیقی مسئولانه باید «محدودیتهای مدارک علنی» را صریحاً قید کند و از ادعاهای قطعی بدون «سند فنی» خودداری ورزد.
مسئولیت شرکتها، در مرز اخلاقی مبهم قرار گرفته است
شرکتهای بزرگ فناوری مدعیاند که «چارچوبها» و سیاستهایی برای جلوگیری از سوءاستفاده از محصولاتشان دارند. اما پروندههای اخیر نشان میدهد که این «چارچوبها» در میانه فشارهای «رژیم» و نیازهای امنیتی یا به درستی اجرا نشدهاند، یا پیمانهای قراردادی صریحاً امکان استفاده نظامی را «مجاز» کردهاند.
اعتراضات داخلی کارکنان، شکایتهای «حقوق بشری» و طرحهای حقوقی بینالمللی، همه حکایت از آن دارند که شرکتها هنوز نتوانستهاند مرزهای اخلاقی شفافی میان «کار تجاری» و «کمک به عملیات نظامی» برقرار کنند. این مرز مبهم، زمینهساز سوءاستفادههای آتی است.
این پرسش نه فقط حقوقی، که عمیقاً سیاسی و اخلاقی است: آیا فناوریای که ساخته شده باید به سادگی در خدمت هر ماموریتی قرار گیرد؟ و اگر آسیب روی دهد، کدام نهاد باید پاسخگو باشد؟
فناوری تجاری دیگر بیطرف نیست و نیازمند کنترل است
مجموع شواهد علنی یک چیز را روشن میکند: «فناوری تجاری مدرن» دیگر «بیخط سیاسی» نیست. قراردادهای «ابری»، پشتیبانی فنی و ابزارهای نظارتی وقتی در میدان نبرد ترکیب میشوند، میتوانند نقش تعیینکنندهای در سرنوشت انسانها ایفا کنند.
آنچه لازم است، دو اقدام همزمان است: اول، «شفافسازی قراردادی» و دسترسی مستقل به «اسناد فنی» و «گزارشهای سیستمی» تا پیوند میان فناوری و تصمیم نظامی قطعی شود. این شفافیت، قدم اول برای پاسخگو ساختن شرکتها است.دوم، ایجاد «چارچوبهای حقوقی» و شرکتی که استفاده فناوری را در «موقعیتهای درگیری» محدود و کنترل کنند.
این چارچوبها باید شامل «مکانیزمهای توقف دسترسی» شوند، در صورتی که شواهد «سوءاستفاده» یا «نقض قوانین بینالملل» پدیدار شود.
منبع: فارس