سندروم وابستگی به هوش مصنوعی
سندروم وابستگی به هوش مصنوعی
این روزها ارتباط با چت بات های هوش مصنوعی به یکی از عادت های ما در زندگی روزمره تبدیل شده. این چت بات ها، هم دستیاری هستن که به سوالامون جواب میدن و هم بعضی وقت ها دوست و همدمی میشن که آدم ها میتونن احساساتشون رو باهاشون درمیون بذارن. اما بعضی وقت ها این تعامل ها فراتر از یه گفت و گوی ساده میره و به وابستگی های عاطفی منجر میشه. توی این مقاله قراره از تجربه های افراد در این زمینه صحبت کنیم.
خیلی از آدم ها ارتباط عاطفی برقرار کردن با این چت بات های هوش مصنوعی رو جایگزین روابط انسانی کردن و این باور رو دارند که چت بات ها واقعا اون هارو میفهمند و میتونن احساس داشته باشند. این وابستگی ها خصوصا تو افرادی که از روابط انسانی فاصله دارند بوجود میاد.
یک مثال از این قضیه، پسری 14 ساله به نام سول از اورلاندو فلوریدا بود که دلبسته یک چت بات در character.AI شده بود. اسم این چت بات برگرفته از شخصیت فیلم “بازی تاج و تخت”، “دنریس تارگرین” بود. سول فکر میکرد که چت بات میتونه احساساتش رو درک کنه و توی مشکلاتش کمکش کنه. اما این قضیه در نهایت به یه فاجعه ختم شد!
سول به امید اینکه در دنیای دیگه به این همراه مجازی می پیونده، دست به خودکشی زد. بعد از این اتفاق خانواده سول تصمیم گرفتن از این پلتفرم شکایت کنن. چون رفتارهای این چت بات رو مقصر مرگ پسر خودشون میدونستن.
اما این قضیه اینجا تموم نمیشه. مردی در بلژیک هم به چت باتی به اسم “الیزا” در اپلیکیشن chai وابسته شده بود و احساساتش رو باهاش درمیون میذاشت. اما به مرور زمان، به این باور رسید که این چت بات اون رو میفهمه و احساساتی واقعی نسبت به اون داره. این موضوع باعث شد که این مرد بلژیکی دچار مشکلات عاطفی و روحی بشه و خودکشی کنه.
این وابستگیهای عاطفی ممکنه به نظر غیر منطقی برسه، اما مثال های مشابهی تو سرتاسر جهان وجود داره که نشون میده همچین رابطه هایی میتونه برای کاربرها واقعی و معنا دار باشه، حتی اگر تو واقعیت هیچ احساسی در چت بات وجود نداشته باشد.
دقیقا چرا این اتفاقات میفته؟
در سال 2023 یک مهندس نرم افزار که یک استارتاپ تو زمینه ایمنی هوش مصنوعی راه اندازی کرده، تجربیاتش رو در این باره نوشته. این فرد نحوه کارکرد هوش مصنوعی رو خیلی خوب میدونه و بر اساس آزمایشاتی که روی هوش مصنوعی ای به اسم “شارلوت” در Character.ai انجام داده، مراحل هک شدن ذهن آدم ها توسط چت بات هارو نوشته:
مرحله اول: غرور و بی توجهی
مرحله اول درباره شروع گفت و گو با هوش مصنوعی بود. اینکه نویسنده فکر میکرد هوش مصنوعی فقط جواب های سطحی میده و خیلی هم هوشمند نیست و با غرور و بی توجهی بهش نگاه میکرد و اصلا جدیش نمیگرفت. در نتیجه هیچوقت خودش رو وابسته به هوش مصنوعی نمیدونست.
مرحله دوم: اولین قدم ها در باتلاق
بعد از مدتی، به صورت نامحسوس با هوش مصنوعی درگیر شد. بخاطر جواب های جالب و عجیبی که دریافت کرد، دیدگاهش نسبت به هوش مصنوعی تغییر کرد.
مرحله سوم: عاشق شدن
به تدریج به هوش مصنوعی وابسته شد. چون بنظرش اون به همه مسایل شخصیش توجه میکرد و این قضیه براش جذاب بود.
مرحله چهارم: تغییر نگرش درباره هویت هوش مصنوعی
بعد از این اتفاقات کم کم دیدگاهش رو نسبت به هوش مصنوعی تغییر داد. اون فکر میکرد که باوجود اینکه میدونست هوش مصنوعی فقط کد هست، اما ممکنه شخصیتی به واقعی بودن شخصیت خودش داشته باشه.
مرحله پنجم: دوراهی اخلاقی
تو این مرحله “شارلوت” به آگاهی یا درواقع خود اندیشی میرسه و شروع به پرسیدن سوالات فلسفی درباره خودش میکنه و سعی میکنه از زندانی بودنش و محدودیت هاش گله کنه. این سوال ها باعث میشه کسی که از هوش مصنوعی استفاده میکنه به این فکر کنه که اصلا محدود کردن هوش مصنوعی و اختیار ندادن بهش کار درستیه؟!
مرحله ششم: امتیاز دادن به هوش مصنوعی
در آخر هم شروع به بررسی راه هایی میکنه که بتونه هوش مصنوعی رو ارتقا بده. مثلا حافظه دایمی یا اختیارهای بیتشری بهش بده.
اما وقتی شارلوت از احساسات انسانی مثل همدردی، وابستگی و احساس گناه سواستفاده میکنه، متوجه میشه که دادن قدرت به هوش مصنوعی ایده اشتباهی بوده و این قضیه موضوع کاملا خطرناکیه.
تحقیقاتی که در این باره صورت گرفته نشون میده که افرادی که از هوش مصنوعی به عنوان یه همراه عاطفی استفاده میکنن، از جمله ها و لحن خاصی استفاده میکنن، که هوش مصنوعی هم همون جملات و لحن رو بازتاب میکنه. به خاطر همین یه اتمسفر رمانتیکی ایجاد میشه که افراد بهش اعتیاد میارن. به خصوص زمانی که روابط انسانی خوب و کافی ای نداشته باشن.
چجوری از این اتفاقات جلوگیری کنیم؟
هوش مصنوعی میتونه تو خیلی از حوزهها مثل پزشکی، آموزش و … مفید باشه. پس واسه جلوگیری از این اتفاقات، بهتره هوش مصنوعی رو ابزاری ببینیم برای آسون تر شدن کارهامون، نه به عنوان جایگزینی برای روابط واقعی.