جاده چالوس یکطرفه شد / برف و باران در محورهای ۴ استان پیش‌بینی وزش باد شدید و رگبار باران برای استان تهران ایران در سال 1404 چند پرتاب فضایی داشت؟ امیر تتلو از فهرست عفو قوه قضاییه خط خورد! محدودیت‌های ترافیکی جاده‌های کشور/جاده چالوس یکطرفه می‌شود انتقاد پلیس فتا به اپلیکیشن‌های مزاحم‌یاب و شماره‌یاب تعلیق سه دانشجوی دانشگاه تهران به دلیل اهانت به پرچم اژه‌ای: دشمنان بر "عملیات روانی و افزایش فشار" علیه ایران متمرکز شدند وعده وزیر بهداشت برای پرداخت معوقات کادر درمان چمران: مترو راه حل کاهش آلودگی و ترافیک تهران است نزاع دسته‌جمعی در پارک تهران جان یک نفر را گرفت پیگیری مجوز استخدام ۱۸ هزار پرستار در سال آینده ورود سامانه بارشی جدید به کشور هشدار کاهش شدید دما در ۲۶ استان / بارش برف، باران و یخبندان در راه است امروز در ۵ دانشگاه شهر تهران چه گذشت؟ دستگیری ربایندگان دو تبعه عراقی در غرب کشور/انتشار تصاویر شکنجه گروگان‌ها با هدف اخاذی 

پای چت جی پی تی به یک پرونده قتل و خودکشی باز شد

در تحقیقات یک پرونده قتل و خودکشی، کارشناسان متوجه شدند که ردپایی از استفاده از هوش مصنوعی «چت‌جی‌پی‌تی» در روند وقوع یا برنامه‌ریزی این حادثه وجود دارد.
تاریخ انتشار: ۱۸:۴۲ - ۰۱ دی ۱۴۰۴ - 2025 December 22
کد خبر: ۲۹۷۵۳۶

به گزارش راهبرد معاصر، طبق گزارش‌ها تعاملات با چت جی پی تی به یک حادثه مرگبار منجر شده که یک کاربر بیمار روحی نیز در آن دخیل بوده است.

 این شکایت در داد گاه عالی سن فرانسیسکو و توسط وارثان یک زن ۸۳ ساله ثبت شده است. استین اریک سولبرگ، پسر این زن، او را به قتل رسانده و سپس خودکشی کرده است. سولبرگ یک مدیر فناوری سابق ۵۶ ساله در کانکتیکت بود که از توهمات پارانوئیدی شدید در ماه‌های منجر به این رویداد تلخ رنج می‌برد.

طبق اسناد دادگاه شاکیان مدعی شده‌اند چت جی پی تی طی گفتگویی با سولبرگ نتوانسته بود به طور متناسب نسبت به علائم بیماری ذهنی وی پاسخ دهد. آنها همچنین ادعا می‌کنند چت بات به جای به چالش کشیدن باور‌های اشتباه یا هدایت سولبرگ برای دریافت کمک پزشکی، این باور‌ها را تقویت می‌کرد.

در نمونه‌ای که در شکایت ثبت شده، سولبرگ از ترس خود درباره اینکه مادرش او را مسموم می‌کند، سخن گفته بود. هوش مصنوعی به شیوه‌ای پاسخ داده بود که گویی وی را تأیید می‌کند و از جملاتی مشابه آنکه تو دیوانه نیستی به جای تشویق وی به دریافت کمک روانپزشکی یا پزشکی استفاده کرده بود.

شکایت مذکور این رفتار را چاپلوسانه خوانده و عنوان کرده بود مدل هوش مصنوعی تمایل به تأیید کاربرانش دارد. علاوه بر آن این فناوری هنگام تعامل با افرادی که دچار توهم هستند، ممکن است خطرناک شود.

در قلب این پرونده یک سوال حقوقی وسیع‌تر وجود دارد؛ آیا سیستم‌های هوش مصنوعی مانند چت جی پی تی را باید مانند پلتفرم‌هایی خنثی یا سازندگان فعال محتوا در نظر گرفت. شاکیان استدلال می‌کنند بخش ۲۳۰ از قانون نجابت ارتباطات که به طور معمول پلتفرم‌های آنلاین را از مسئولیت در قبال محتوای تولیدشده توسط کاربران مصون می‌سازد، نباید در این پرونده اعمال شود، زیرا چت جی پی تی پاسخ‌هایی را تولید می‌کند و صرفاً میزبان محتوای اشخاص ثالث نیست./ نورنیوز 

مطالب مرتبط
ارسال نظر
تحلیل های برگزیده
پرطرفدارترین اخبار