بررسی سامانههای اسرائیل و الزامات مقابلهای جمهوری اسلامی ایران
در سالهای اخیر، توسعه و کاربست سامانههای مبتنی بر هوش مصنوعی در عرصههای نظامی، به یکی از عوامل تحولآفرین در ماهیت و شیوههای پیشبرد منازعات مسلحانه بدل شدهاست. رشد شتابان فناوریهای یادگیری ماشین، تحلیل کلان داده و سامانههای رهگیری لحظهای، موجب گردیده فرآیند تصمیمگیریهای مرگ بار بهنحوی فزاینده خودکار شود و عملاً میدان نبرد به قلمروی تحت سلطه الگوریتمها تبدیل گردد.
نمونه بارز این روند، بهرهگیری ارتش رژیم صهیونیستی از چهار سامانه پیشرفته موسوم به Lavender، Gospel، Where’s Daddy و Fire Factory در عملیاتهای اخیر غزه و بهویژه در خلال جنگ دوازدهروزه ایران و اسرائیل است. این سامانهها با پردازش ترکیبی دادههای ارتباطی، مکانی و تصویری، ظرف مدت کوتاهی دهها هزار فرد و هدف زیرساختی را به فهرست اهداف نظامی افزودند.
هرچند این فناوریها مزیتهای عملیاتی چشمگیری برای نیروهای بهرهبردار فراهم نمودهاند، اما به همان نسبت، چالشهای عمیق حقوقی، اخلاقی و امنیتی ایجاد کردهاند؛ چالشهایی که در محیط پرتنش و بیثبات خاورمیانه، مخاطرات مضاعفی بر حقوق بشر و صلح بینالمللی تحمیل میکند.
مروری بر چهار سامانه اصلی هوش مصنوعی نظامی اسرائیل
Lavender
سامانهای مبتنی بر طبقهبندی الگوریتمی است که وظیفه شناسایی و رصد اشخاص مظنون به عضویت در گروههای مسلح را برعهده دارد. با تجمیع دادههای ارتباطی و تحلیل الگوهای آماری، این سامانه احتمال تعلق هر فرد به ساختارهای نظامی را محاسبه میکند و بر اساس همین خروجی، دستور هدفگذاری صادر میشود. گزارشها حاکی از آن است که Lavender قریب به ۳۷ هزار نفر را در فهرست اهداف قرار داده و این امر، شائبه جدی نقض اصل تفکیک و تناسب را ایجاد نمودهاست.
Gospel (Habsora)
این سامانه با ادغام اطلاعات ماهوارهای، تصاویر پهپادی و دادههای میدانی، زیرساختها و ابنیه را بهعنوان اهداف بالقوه شناسایی کرده و با اولویتبندی، توصیههای حمله صادر میکند. سرعت تصمیمگیری Gospel بهمراتب فراتر از توان تیمهای انسانی است و همین موضوع، سطح نظارت انسانی را بهشدت تضعیف کرده است.
Where’s Daddy
سامانهای پیشرفته برای رهگیری لحظهای افراد و مدیریت زمانبندی حملات. این سیستم با پایش سیگنالهای مخابراتی، امکان رصد لحظهای محل سکونت و تردد افراد هدف را فراهم میآورد. چنین سطحی از نظارت بیوقفه، نقض آشکار حریم خصوصی و امنیت روانی ساکنان مناطق درگیری محسوبمیشود.
Fire Factory (Alchemist)
سامانهای که چرخه شناسایی تا عملیات را تقریباً بهطور کامل خودکار میسازد. Fire Factory با تجمیع دادههای سه سامانه پیشین، نوع مهمات، نقطه هدف و زمانبندی حمله را تعیین و اجرای عملیات را تسهیل میکند. این میزان اتوماسیون، نقدهای گستردهای را نسبت به حذف کنترل انسانی و افزایش خطر تلفات غیرنظامی برانگیخته است.
ابعاد حقوقی و پیامدهای کیفری
کاربرد چنین سامانههایی، چالشهای جدی در پرتو اصول بنیادین حقوق بینالملل بشردوستانه، از جمله اصل تفکیک و تناسب، ایجاد میکند. تکیه صرف بر تحلیلهای آماری و الگوریتمی، بدون ارزیابی دقیق مصداقی، زمینهساز بروز خطاهای فاجعهبار و جنایتهای جنگی بالقوه است. جنگ دوازدهروزه ایران و اسرائیل نشان داد که کاهش نقش انسان در تصمیمگیریهای مرگبار، دیگر صرفاً یک دغدغه تئوریک نیست بلکه به یک تهدید بالفعل برای جان غیرنظامیان تبدیل شدهاست.
علاوه بر این، مسئولیت کیفری توسعه دهندگان و فرماندهان نظامی ذیربط همچنان پابرجا میماند. هیچ سطحی از خودکارسازی تصمیمات نمیتواند مشروعیت ارتکاب جنایت جنگی یا نقض گسترده حقوق بشر را توجیه نماید.
ابعاد تهدید صیانت دادهها و حریم خصوصی
برای تولید پروفایلهای رفتاری و مدلسازی دقیق تحرکات، این سامانهها به گردآوری انبوه دادههای مکان محور، سوابق ارتباطی و اطلاعات شخصی وابستهاند. چنین سطحی از مداخله و رهگیری مستمر، نهتنها نقض آشکار حریم خصوصی افراد است بلکه تهدیدی اساسی علیه کرامت انسانی محسوبمیشود. گزارشهای جنگ دوازدهروزه نیز مؤید استفاده ترکیبی از حملات سایبری، رهگیری تلفن همراه و تحلیل کلانداده برای هدایت عملیاتهای هوشمند بود.
راهکارهای حقوقی و بینالمللی مکمل
در مواجهه با پیامدهای عمیق بهکارگیری سامانههای هوشمصنوعی نظامی، جامعه بینالمللی و بازیگران منطقهای ناگزیر از طراحی و اجرای سازوکارهای مؤثر حقوقی، نهادی و فناوری هستند. مجموعه اقداماتی که میتواند زمینه کاهش خطرات و تقویت پاسخگویی را فراهم کند، عبارتاند از:
۱. تدوین اسناد و موافقتنامههای الزامآور بینالمللی
- تدوین کنوانسیونها یا پروتکلهای اختصاصی که محدوده و شرایط استفاده از هوشمصنوعی نظامی را بهصراحت تعیین کند.
- الزام دولتها به رعایت «اصل نظارت و کنترل انسانی معنادار» (Meaningful Human Control) بر چرخه تصمیمگیری و اجرای حملات.
- درج مقررات شفاف در خصوص مسئولیتهای کیفری فرماندهان و توسعه دهندگان این فناوریها.
۲. ایجاد نهادهای بیطرف و مستقل برای پایش و ممیزی
- تشکیل هیئتهای نظارتی بینالمللی با صلاحیت جمعآوری دادهها، بررسی شواهد و گزارشدهی عمومی درباره موارد نقض حقوق بشر ناشی از اتوماسیون نظامی.
- پیشبینی اختیارات کافی برای دسترسی به مستندات عملیات و بازبینی چرخه تصمیمگیری الگوریتمی.
- طراحی سازوکارهای پایش مستمر و گزارشگیری ادواری از دولتها.
- تضمین حقوق قربانیان در دسترسی به اطلاعات و جبران خسارت
o شناسایی و ثبت اطلاعات افراد آسیبدیده از حملات خودکار، بهمنظور شفافسازی ابعاد خسارات.
o تدوین دستورالعملهای حقوقی برای رسیدگی سریع به شکایات و تقاضاهای جبران.
o تأسیس صندوقهای بینالمللی جبران خسارت با حمایت دولتها و سازمانهای بینالمللی.
- توسعه فناوریهای حفاظتی، مقاومسازی و اخلالگر
o سرمایهگذاری مشترک دولتها و بخش خصوصی در طراحی ابزارها و زیرساختهای مقاوم در برابر رهگیری داده و حملات سایبری.
o گسترش قابلیتهای فنی برای اخلال در چرخه پردازش الگوریتمی، فریب دادهها و حفظ محرمانگی ارتباطات.
o حمایت حقوقی و مالی از پروژههای فناورانه با کاربری دفاع از حریم خصوصی.
- ظرفیتسازی حقوقی، آموزشی و رسانهای فراگیر
o ایجاد شبکههای تخصصی آموزش و توانمندسازی برای وکلا، قضات، روزنامهنگاران و فعالان حقوق بشر.
o تهیه محتوای آموزشی و دستورالعملهای عملیاتی درباره پیامدهای حقوقی استفاده نظامی از هوشمصنوعی.
o طراحی سامانههای اطلاعرسانی و پایش عمومی برای افزایش شفافیت و آگاهی افکار عمومی.
- ارتقای شفافیت و مسئولیتپذیری توسعه دهندگان فناوری
o تصویب مقرراتی که شرکتهای تولیدکننده و تأمینکننده سامانههای هوشمصنوعی را ملزم به افشای مشخصات فنی و سیاستهای کاربری کنند.
o ایجاد الزامات قانونی برای ارزیابی اثرات حقوق بشری پیش از صدور مجوز صادرات یا کاربری این سامانهها.
این مجموعه تدابیر حقوقی و نهادی، در صورت اجرا و التزام واقعی دولتها، میتواند گامی مؤثر در جهت مدیریت مخاطرات و حفاظت از کرامت انسانی در دوران گذار به جنگهای الگوریتمی باشد.
ظهور سامانههایی مانند Lavender، Gospel، Where’s Daddy و Fire Factory، به وضوح نشان داد که هوشمصنوعی نظامی فراتر از یک فناوری صرف، به ابزاری راهبردی در تغییر ماهیت جنگها و تهدید بنیادین علیه ارزشهای انسانی بدل شدهاست. جنگ دوازدهروزه ایران و اسرائیل نقطه عطفی بود که این تهدید را از سطح نظری به عرصه واقعی منتقل کرد.
در چنین شرایطی، تمرکز جامعه جهانی بر توسعه چارچوبهای حقوقی الزامآور، ظرفیتسازی فناوریهای حفاظتی و تضمین شفافیت و پاسخگویی، پیششرط صیانت از امنیت ملتها و کرامت انسان است. پیشرفت فناوری، هرگز نباید توجیهگر قربانی شدن ارزشهای بنیادین بشر باشد.