بررسی سامانه‌های اسرائیل و الزامات مقابله‌ای جمهوری اسلامی ایران

زمان مطالعه: 4 دقیقه

در سالهای اخیر، توسعه و کاربست سامانههای مبتنی بر هوش مصنوعی در عرصههای نظامی، به یکی از عوامل تحولآفرین در ماهیت و شیوههای پیشبرد منازعات مسلحانه بدل شدهاست. رشد شتابان فناوریهای یادگیری ماشین، تحلیل کلان داده و سامانههای رهگیری لحظهای، موجب گردیده فرآیند تصمیمگیریهای مرگ بار بهنحوی فزاینده خودکار شود و عملاً میدان نبرد به قلمروی تحت سلطه الگوریتمها تبدیل گردد.

نمونه بارز این روند، بهرهگیری ارتش رژیم صهیونیستی از چهار سامانه پیشرفته موسوم به Lavender، Gospel، Where’s Daddy و Fire Factory در عملیاتهای اخیر غزه و بهویژه در خلال جنگ دوازدهروزه ایران و اسرائیل است. این سامانهها با پردازش ترکیبی دادههای ارتباطی، مکانی و تصویری، ظرف مدت کوتاهی دهها هزار فرد و هدف زیرساختی را به فهرست اهداف نظامی افزودند.

هرچند این فناوریها مزیتهای عملیاتی چشمگیری برای نیروهای بهرهبردار فراهم نمودهاند، اما به همان نسبت، چالشهای عمیق حقوقی، اخلاقی و امنیتی ایجاد کردهاند؛ چالشهایی که در محیط پرتنش و بیثبات خاورمیانه، مخاطرات مضاعفی بر حقوق بشر و صلح بینالمللی تحمیل میکند.

مروری بر چهار سامانه اصلی هوش مصنوعی نظامی اسرائیل

Lavender

سامانه‌ای مبتنی بر طبقه‌بندی الگوریتمی است که وظیفه شناسایی و رصد اشخاص مظنون به عضویت در گروه‌های مسلح را برعهده دارد. با تجمیع داده‌های ارتباطی و تحلیل الگوهای آماری، این سامانه احتمال تعلق هر فرد به ساختارهای نظامی را محاسبه می‌کند و بر اساس همین خروجی، دستور هدفگذاری صادر می‌شود. گزارش‌ها حاکی از آن است که Lavender قریب به ۳۷ هزار نفر را در فهرست اهداف قرار داده و این امر، شائبه جدی نقض اصل تفکیک و تناسب را ایجاد نموده‌است.

Gospel (Habsora)

این سامانه با ادغام اطلاعات ماهواره‌ای، تصاویر پهپادی و داده‌های میدانی، زیرساخت‌ها و ابنیه را به‌عنوان اهداف بالقوه شناسایی کرده و با اولویت‌بندی، توصیه‌های حمله صادر می‌کند. سرعت تصمیم‌گیری Gospel به‌مراتب فراتر از توان تیم‌های انسانی است و همین موضوع، سطح نظارت انسانی را به‌شدت تضعیف کرده است.

Where’s Daddy

سامانهای پیشرفته برای رهگیری لحظه‌ای افراد و مدیریت زمانبندی حملات. این سیستم با پایش سیگنال‌های مخابراتی، امکان رصد لحظه‌ای محل سکونت و تردد افراد هدف را فراهم می‌آورد. چنین سطحی از نظارت بی‌وقفه، نقض آشکار حریم خصوصی و امنیت روانی ساکنان مناطق درگیری محسوب‌می‌شود.

Fire Factory (Alchemist)

سامانه‌ای که چرخه شناسایی تا عملیات را تقریباً بهطور کامل خودکار می‌سازد. Fire Factory با تجمیع داده‌های سه سامانه پیشین، نوع مهمات، نقطه هدف و زمانبندی حمله را تعیین و اجرای عملیات را تسهیل می‌کند. این میزان اتوماسیون، نقدهای گسترده‌ای را نسبت به حذف کنترل انسانی و افزایش خطر تلفات غیرنظامی برانگیخته است.

ابعاد حقوقی و پیامدهای کیفری

کاربرد چنین سامانه‌هایی، چالش‌های جدی در پرتو اصول بنیادین حقوق بین‌الملل بشردوستانه، از جمله اصل تفکیک و تناسب، ایجاد می‌کند. تکیه صرف بر تحلیل‌های آماری و الگوریتمی، بدون ارزیابی دقیق مصداقی، زمینه‌ساز بروز خطاهای فاجعه‌بار و جنایت‌های جنگی بالقوه است. جنگ دوازدهروزه ایران و اسرائیل نشان داد که کاهش نقش انسان در تصمیمگیریهای مرگبار، دیگر صرفاً یک دغدغه تئوریک نیست بلکه به یک تهدید بالفعل برای جان غیرنظامیان تبدیل شده‌است.

علاوه بر این، مسئولیت کیفری توسعه دهندگان و فرماندهان نظامی ذیربط همچنان پابرجا می‌ماند. هیچ سطحی از خودکارسازی تصمیمات نمی‌تواند مشروعیت ارتکاب جنایت جنگی یا نقض گسترده حقوق بشر را توجیه نماید.

ابعاد تهدید صیانت داده‌ها و حریم خصوصی

برای تولید پروفایل‌های رفتاری و مدل‌سازی دقیق تحرکات، این سامانه‌ها به گردآوری انبوه داده‌های مکان محور، سوابق ارتباطی و اطلاعات شخصی وابسته‌اند. چنین سطحی از مداخله و رهگیری مستمر، نه‌تنها نقض آشکار حریم خصوصی افراد است بلکه تهدیدی اساسی علیه کرامت انسانی محسوب‌می‌شود. گزارش‌های جنگ دوازدهروزه نیز مؤید استفاده ترکیبی از حملات سایبری، رهگیری تلفن همراه و تحلیل کلانداده برای هدایت عملیات‌های هوشمند بود.

راهکارهای حقوقی و بینالمللی مکمل

در مواجهه با پیامدهای عمیق به‌کارگیری سامانه‌های هوش‌مصنوعی نظامی، جامعه بینالمللی و بازیگران منطقه‌ای ناگزیر از طراحی و اجرای سازوکارهای مؤثر حقوقی، نهادی و فناوری هستند. مجموعه اقداماتی که می‌تواند زمینه کاهش خطرات و تقویت پاسخ‌گویی را فراهم کند، عبارت‌اند از:

۱. تدوین اسناد و موافقتنامههای الزامآور بینالمللی

  • تدوین کنوانسیون‌ها یا پروتکل‌های اختصاصی که محدوده و شرایط استفاده از هوش‌مصنوعی نظامی را بهصراحت تعیین کند.
  • الزام دولت‌ها به رعایت «اصل نظارت و کنترل انسانی معنادار» (Meaningful Human Control) بر چرخه تصمیم‌گیری و اجرای حملات.
  • درج مقررات شفاف در خصوص مسئولیت‌های کیفری فرماندهان و توسعه دهندگان این فناوری‌ها.

۲. ایجاد نهادهای بیطرف و مستقل برای پایش و ممیزی

  • تشکیل هیئت‌های نظارتی بینالمللی با صلاحیت جمع‌آوری داده‌ها، بررسی شواهد و گزارش‌دهی عمومی درباره موارد نقض حقوق بشر ناشی از اتوماسیون نظامی.
  • پیش‌بینی اختیارات کافی برای دسترسی به مستندات عملیات و بازبینی چرخه تصمیم‌گیری الگوریتمی.
  • طراحی سازوکارهای پایش مستمر و گزارشگیری ادواری از دولت‌ها.
  1. تضمین حقوق قربانیان در دسترسی به اطلاعات و جبران خسارت

o شناسایی و ثبت اطلاعات افراد آسیبدیده از حملات خودکار، به‌منظور شفاف‌سازی ابعاد خسارات.

o تدوین دستورالعمل‌های حقوقی برای رسیدگی سریع به شکایات و تقاضاهای جبران.

o تأسیس صندوق‌های بینالمللی جبران خسارت با حمایت دولت‌ها و سازمان‌های بینالمللی.

  1. توسعه فناوری‌های حفاظتی، مقاوم‌سازی و اخلالگر

o سرمایه‌گذاری مشترک دولت‌ها و بخش خصوصی در طراحی ابزارها و زیرساخت‌های مقاوم در برابر رهگیری داده و حملات سایبری.

o گسترش قابلیت‌های فنی برای اخلال در چرخه پردازش الگوریتمی، فریب داده‌ها و حفظ محرمانگی ارتباطات.

o حمایت حقوقی و مالی از پروژه‌های فناورانه با کاربری دفاع از حریم خصوصی.

  1. ظرفیت‌سازی حقوقی، آموزشی و رسانه‌ای فراگیر

o ایجاد شبکه‌های تخصصی آموزش و توانمندسازی برای وکلا، قضات، روزنامه‌نگاران و فعالان حقوق بشر.

o تهیه محتوای آموزشی و دستورالعمل‌های عملیاتی درباره پیامدهای حقوقی استفاده نظامی از هوش‌مصنوعی.

o طراحی سامانه‌های اطلاعرسانی و پایش عمومی برای افزایش شفافیت و آگاهی افکار عمومی.

  1. ارتقای شفافیت و مسئولیت‌پذیری توسعه دهندگان فناوری

o تصویب مقرراتی که شرکت‌های تولیدکننده و تأمین‌کننده سامانه‌های هوش‌مصنوعی را ملزم به افشای مشخصات فنی و سیاستهای کاربری کنند.

o ایجاد الزامات قانونی برای ارزیابی اثرات حقوق بشری پیش از صدور مجوز صادرات یا کاربری این سامانه‌ها.

این مجموعه تدابیر حقوقی و نهادی، در صورت اجرا و التزام واقعی دولت‌ها، می‌تواند گامی مؤثر در جهت مدیریت مخاطرات و حفاظت از کرامت انسانی در دوران گذار به جنگ‌های الگوریتمی باشد.

ظهور سامانه‌هایی مانند Lavender، Gospel، Where’s Daddy و Fire Factory، به وضوح نشان داد که هوش‌مصنوعی نظامی فراتر از یک فناوری صرف، به ابزاری راهبردی در تغییر ماهیت جنگ‌ها و تهدید بنیادین علیه ارزش‌های انسانی بدل شده‌است. جنگ دوازدهروزه ایران و اسرائیل نقطه عطفی بود که این تهدید را از سطح نظری به عرصه واقعی منتقل کرد.

در چنین شرایطی، تمرکز جامعه جهانی بر توسعه چارچوب‌های حقوقی الزام‌آور، ظرفیت‌سازی فناوری‌های حفاظتی و تضمین شفافیت و پاسخگویی، پیش‌شرط صیانت از امنیت ملت‌ها و کرامت انسان است. پیشرفت فناوری، هرگز نباید توجیهگر قربانی شدن ارزش‌های بنیادین بشر باشد.

 

بدون دیدگاه برای بررسی سامانه‌های اسرائیل و الزامات مقابله‌ای جمهوری اسلامی ایران

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

    هشت + 20 =