آمار معلمان بازنشسته مشغول در مدارس اعلام شد هشدار هواشناسی برای تهران/ افزایش دما و پایداری هوا در راه است/ غبار محلی در مناطق پرتردد جزئیات مهم جذب ٧۴ هزار نفر در آموزش و پرورش واریز حقوق فرهنگیان از روز پنجشنبه ٣٠ بهمن ماه ۱۴۰۴+ جزئیات ساعت جدید فعالیت میادین و بازار‌های میوه و تره‌بار در ماه رمضان واکنش قوه قضائیه به ادعای وکیل امیرحسین مقصودلو معروف به تتلو مأمور نیروی انتظامی شهرستان ایذه به شهادت رسید تمایل ایرانیان برای داشتن ۲.۵ فرزند/ نرخ باروری کل کشور حدود ۱.۴۴ مجوز استخدام ۸۵ هزار معلم در کشور صادر شد/ تکلیف معیشت معلمان چه می‌شود؟ احراز شهادت ۲ تن از قربانیان حوادث دی‌ماه در یاسوج تعیین سهم ایثارگران از ارز ترجیحی دارو و ملزومات پزشکی آغاز کلاس‌های درس دانشگاه آزاد اسلامی از ۹ اسفند به صورت حضوری اژه‌ای: اختیارات خود را به رئیس دادگستری استان‌ها تفویض می‌کنم ایکس از دسترس خارج شد دستور اژه‌ای برای تعیین تکلیف پرونده‌های بالای یک سال حمله به خودروی کارگران معدن در زاهدان/ پلیس در تعقیب اشرار مسلح

پای چت جی پی تی به یک پرونده قتل و خودکشی باز شد

در تحقیقات یک پرونده قتل و خودکشی، کارشناسان متوجه شدند که ردپایی از استفاده از هوش مصنوعی «چت‌جی‌پی‌تی» در روند وقوع یا برنامه‌ریزی این حادثه وجود دارد.
تاریخ انتشار: ۱۸:۴۲ - ۰۱ دی ۱۴۰۴ - 2025 December 22
کد خبر: ۲۹۷۵۳۶

به گزارش راهبرد معاصر، طبق گزارش‌ها تعاملات با چت جی پی تی به یک حادثه مرگبار منجر شده که یک کاربر بیمار روحی نیز در آن دخیل بوده است.

 این شکایت در داد گاه عالی سن فرانسیسکو و توسط وارثان یک زن ۸۳ ساله ثبت شده است. استین اریک سولبرگ، پسر این زن، او را به قتل رسانده و سپس خودکشی کرده است. سولبرگ یک مدیر فناوری سابق ۵۶ ساله در کانکتیکت بود که از توهمات پارانوئیدی شدید در ماه‌های منجر به این رویداد تلخ رنج می‌برد.

طبق اسناد دادگاه شاکیان مدعی شده‌اند چت جی پی تی طی گفتگویی با سولبرگ نتوانسته بود به طور متناسب نسبت به علائم بیماری ذهنی وی پاسخ دهد. آنها همچنین ادعا می‌کنند چت بات به جای به چالش کشیدن باور‌های اشتباه یا هدایت سولبرگ برای دریافت کمک پزشکی، این باور‌ها را تقویت می‌کرد.

در نمونه‌ای که در شکایت ثبت شده، سولبرگ از ترس خود درباره اینکه مادرش او را مسموم می‌کند، سخن گفته بود. هوش مصنوعی به شیوه‌ای پاسخ داده بود که گویی وی را تأیید می‌کند و از جملاتی مشابه آنکه تو دیوانه نیستی به جای تشویق وی به دریافت کمک روانپزشکی یا پزشکی استفاده کرده بود.

شکایت مذکور این رفتار را چاپلوسانه خوانده و عنوان کرده بود مدل هوش مصنوعی تمایل به تأیید کاربرانش دارد. علاوه بر آن این فناوری هنگام تعامل با افرادی که دچار توهم هستند، ممکن است خطرناک شود.

در قلب این پرونده یک سوال حقوقی وسیع‌تر وجود دارد؛ آیا سیستم‌های هوش مصنوعی مانند چت جی پی تی را باید مانند پلتفرم‌هایی خنثی یا سازندگان فعال محتوا در نظر گرفت. شاکیان استدلال می‌کنند بخش ۲۳۰ از قانون نجابت ارتباطات که به طور معمول پلتفرم‌های آنلاین را از مسئولیت در قبال محتوای تولیدشده توسط کاربران مصون می‌سازد، نباید در این پرونده اعمال شود، زیرا چت جی پی تی پاسخ‌هایی را تولید می‌کند و صرفاً میزبان محتوای اشخاص ثالث نیست./ نورنیوز 

مطالب مرتبط
ارسال نظر
آخرین اخبار