صفحه نخست

سیاست

اقتصاد

بین‌الملل

جامعه

فرهنگ‌وهنر

چندرسانه‌ای

میقات مدیا

اندیشکده‌های خارجی

انتخابات

فضای مجازی

صفحات داخلی

تاریخ انتشار: ۰۹:۱۳ - ۱۹ فروردين ۱۴۰۳ - 2024 April 07
کد خبر: ۲۳۴۹۱۱
یادداشت لیلی نقولا، تحلیلگر لبنانی؛

هوش مصنوعی، ترفند تل آویو برای فرار از کیفر جنایت جنگی

هوش مصنوعی به اجبار وارد جنگ‌ها شده و روش مبارزه پیشرفته‌ای است، بدون آنکه قوانین کیفری بین‌المللی متوجه آن شود یا اینکه مکانیسم‌های پاسخگویی قانونی در زمینه ارتکاب جنایت‌های جنگی داشته باشد.

 

به گزارش «راهبرد معاصر»؛ چندین گزارش رسانه ای لو رفته از مراکز پژوهشی به افشاگری جدیدی منجر شده و آن این است که رژیم صهیونیستی از برنامه کاربردی مجهز به هوش مصنوعی و پایگاه داده درباره نیروهای حماس و جهاد اسلامی استفاده کرده است.


ارتش صهیونیستی از نرم‌افزاری به نام «لاوندر» که به معنی اسطوخودوس است برای پردازش حجم عظیمی از داده‌ها استفاده کرده است تا افرادی را که به ظن ‌آن‌ها با حماس یا جهاد اسلامی فلسطین مرتبط هستند، شناسایی کند. افسران اطلاعاتی رژیم صهیونیستی استفاده ارتش این رژیم را از هوش مصنوعی برای هدف قراردادن ۳۷ هزار فلسطینی با ادعای ارتباط با حماس در جریان جنگ غزه و استفاده از «بمب‌های گنگ» برای حذف آنها فاش کردند.

به گفته منابع صهیونیست، از بمب‌های هوشمند علیه جنگنده‌های بی‌اهمیت استفاده نمی شود، زیرا بسیار گران هستند و این رژیم تعداد محدودی از آنها دارد


طبق این گزارش، برنامه مبتنی بر هوش مصنوعی هدف را شناسایی، آن را ردیابی و زمانی را برای کشتن یکی از اعضای حماس بدون در نظر گرفتن درجه‌اش انتخاب می‌کند. ارتش صهیونیستی در هفته‌های نخست جنگ پس از هفتم اکتبر 2023 میلادی به طور کامل به نرم‌افزار لاوندر متکی بود و افسران ارتش می‌توانستند با دست باز برای هدف قرار دادن افراد به فهرست این برنامه کاربردی اتکا، بی‌آنکه مجبور باشند دلیل انتخاب افراد را در فهرست ارزیابی یا داده‌های خامی را که به انتخاب انجامیده بود، مجدد بررسی کنند.


ارتش صهیونیستی برای حمله به گروه‌های کوچک شبه‌نظامیان فلسطینی ترجیح داد از بمب‌های موسوم به گُنگ استفاده کند که موشک‌های غیردقیق با توان وارد کردن خسارت گسترده هستند.


این گزارش که بر مبنای تأیید مقام های رژیم صهیونیستی منتشر شده است، می‌افزاید برنامه‌ها اجازه کشتن صدها غیرنظامی فلسطینی و اعضای حماس را بدون در نظر گرفتن درجه‌اش و در بسیاری از موارد خانه‌هایشان می‌دهد. این در حالی است که در برخی موارد خانه های زیادی ویران و تمام اعضای خانواده کشته شدند، بدون آنکه عضو حماس آنجا حضور داشته باشد.


به گفته منابع صهیونیست، از بمب‌های هوشمند علیه جنگنده‌های بی‌اهمیت استفاده نمی شود، زیرا بسیار گران هستند و این رژیم تعداد محدودی از آنها دارد. این منابع افزودند: در مرحله بعد، برنامه کار خود را گسترش داد و شروع به افزودن نیروهای امدادی و افسران پلیس به اهداف خود کرد، اهدافی که ترجیحاً بمباران نمی‌شوند.


این گزارش ها حاوی نقض جدی قوانین بین المللی بشردوستانه است که مهم ترین آنها نقض دو اصل «تمایز میان غیرنظامیان» (و اشیای غیرنظامی) و «پرسنل نظامی و مشارکت مستقیم در درگیری ها»ست.


الف- تمایز میان افراد غیرنظامی و نظامی اصل اساسی و سنگ بنای حقوق بین‌الملل بشردوستانه تمایزی است که همه طرف‌های درگیری باید همیشه به آن پایبند باشند؛ یعنی تمایز میان عناصر غیرنظامی و نظامیان یا اهداف غیرنظامی و نظامی. سپس عملیات خود را منحصراً علیه اهداف نظامی هدایت کنند (ماده 48 پروتکل اول الحاقی).


این یعنی باید مرزهای تعریف شده روشنی برای جمعیت غیرنظامی (که افراد محافظت شده هستند و هرگز نمی توانند عمداً هدف قرار گیرند) وجود داشته باشد، مگر اینکه وضعیت خود را به جنگجو تغییر دهند یا سلاح به دست بگیرند (طبق ماده 50 پروتکل نخست الحاقی کنوانسیون های ژنو).


ب - مشارکت مستقیم در درگیری ها اصل تمایز در درگیری‌های مسلحانه غیر بین‌المللی تصریح می‌کند، تمام افرادی که اعضای نیروهای مسلح یک کشور یا اعضای گروه‌های مسلح سازمان‌یافته یک طرف درگیری نیستند، غیرنظامی هستند و از حمله مستقیم محافظت می‌شوند، مگر اینکه حمله‌ای انجام دهند.

تمایز میان افراد غیرنظامی و نظامی اصل اساسی و سنگ بنای حقوق بین‌الملل بشردوستانه تمایزی است که همه طرف‌های درگیری باید همیشه به آن پایبند باشند


این یعنی وقتی غیرنظامیان مشارکت مستقیم در درگیری‌ها را متوقف می‌کنند، یا زمانی که اعضای گروه‌های مسلح سازمان‌یافته وابسته به حزب غیردولتی فعالیت نظامی خود را متوقف می‌کنند، حفاظت کاملی که از غیرنظامیان در برابر حملات مستقیم ارائه می‌شود، دوباره به دست می‌آورند. حتی اگر قتل آنها به دلیل ضرورت نظامی نباشد، ممکن است کشتار و جنایت جنگی تلقی شود.


اینکه برنامه هوش مصنوعی دستور داد و عملیات انجام شد به چه معناست؟ به دلیل اتهامات اخلاقی که رژیم صهیونیستی با آن مواجه می شود، از منظر حقوقی اجازه مصونیت از مجازات ندارد. بنابراین، ترفند رژیم صهیونیستی است ادعا کند هوش مصنوعی مرتکب جنایت ها شده است، زیرا مسئولیت کیفری در دادگاه‌ها طبق قوانین کیفری بین‌المللی فردی و انسانی است.


«جنایت ها به وسیله افراد و نه نهادهای انتزاعی و تنها با مجازات افرادی که مرتکب تخلفات می‌شوند، می‌تواند اجرا شود». این نقل قول از حکم صادر شده به وسیله دادگاه های نورنبرگ سنگ بنای مسئولیت کیفری فردی درقبال جنایت های بین المللی ارتکابی مانند نسل کشی، جنایت های جنگی و جنایت علیه بشریت است که بعداً به وسیله چندین دادگاه بین المللی ازجمله دادگاه لاهه تأیید شد.


بر این اساس، هوش مصنوعی به شدت وارد جنگ‌ها شد و روش‌های مبارزه توسعه یافت، بدون اینکه قوانین کیفری بین‌المللی متوجه توسعه موازی مربوط به مکانیسم‌های پاسخگویی قانونی در زمینه ارتکاب جنایت در جنگ‌ها شود. بنابراین رژیم صهیونیستی سعی دارد از خلاء موجود استفاده کند تا مقام های این رژیم از مجازات و پاسخگویی در برابر قانون در داخل و خارج سرزمین های اشغالی بگریزند.

 

نظر شما