چرا نباید اطلاعات شخصی با چتباتهای هوش مصنوعی به اشتراک بگذاریم؟
چرا نباید اطلاعات شخصی خود را با ChatGPT یا دیگر چتباتهای هوش مصنوعی به اشتراک بگذاریم؟
با وجود جذابیتشان، خطر در کمین است!
جای هیچ تردیدی نیست که ChatGPT و سایر چتباتهای هوش مصنوعی، همدمهای گفتگویی شگفتانگیزی هستند که میتوانند درباره تقریباً هر موضوعی با شما صحبت کنند.
توانایی آنها در مکالمه به حدی است که ممکن است احساس امنیت کنید و جزئیات شخصیتان را با آنها در میان بگذارید؛ اگر چنین حسی دارید، تنها نیستید. اما شما در حال گفتگو با یک دستگاه ساده نیستید. هر اطلاعاتی که با چتباتی هوشمند در میان بگذارید، ممکن است در سرورهایی ذخیره شود و در آینده از انها استفاده بشه.
چتباتها چرا خطرناک هستند؟
ریشهٔ مشکل در نحوه استفاده شرکتهای مدیریتکننده مدلهای زبانی بزرگ (LLM) از دادههای شخصی کاربران است. این شرکتها از اطلاعات شما برای آموزش و ارتقای عملکرد چتباتها بهره میگیرند.
در شرایط استفادهٔ OpenAI به صراحت آمده است که این شرکت حق دارد از اطلاعاتی که کاربران ارائه میدهند برای بهبود مدلهای خود استفاده کند. به همین دلیل است که ChatGPT هر چیزی که بهش گفتید رو ذخیره میکنه. مگر اینکه از ویژگی جدید حفظ حریم خصوصی آن استفاده کنید که به شما اجازه میدهد تاریخچه گفتوگو ذخیره نشود.
اگر چنین تنظیماتی را فعال نکنید، هر اطلاعاتی که به اشتراک میگذارید، مانند اطلاعات مالی، گذرواژهها، نشانی منزل، شماره تلفن یا حتی جزئیات سادهای نظیر آنچه برای صبحانه خوردهاید، میتواند ثبت شود. همچنین، هر فایل یا بازخوردی که ارائه کنید نیز ذخیره خواهد شد.
این شرکت همچنین ممکن است اطلاعات شخصی شما را «ناشناسسازی» کند و از دادههای جمع آوری شده برای تحلیل عملکرد خدمات خود بهره گیرد. این نکته، اگرچه ظاهراً کوچک به نظر میرسد، اما دریچهای میگشاید که اطلاعاتی که چتبات از شما آموخته است، ممکن است در آینده به نحوی در دسترس عموم قرار گیرد مسئلهای که عمیقاً نگرانکننده است.
چرا باید نگران باشیم؟
البته باید منصف بود. احتمال سوءاستفاده عمدی شرکتها از دادههای کاربران بسیار کم است. در سالهای اخیر، OpenAI تلاش کرده است تا کاربران خود را نسبت به نحوه گردآوری و استفاده از اطلاعاتشان مطمئن سازد.
برای مثال، در فوریه امسال، هنگامی که سازمان حفاظت از دادههای ایتالیا (DPA) OpenAI را به نقض مقررات حفاظت از دادههای عمومی اتحادیه اروپا (GDPR) متهم کرد، این شرکت به BBC اعلام کرد: هدف ما این است که هوش مصنوعی درباره جهان بیاموزد، نه درباره افراد خصوصی.
همچنین افزود: «ما به طور فعال تلاش میکنیم تا دادههای شخصی در فرآیند آموزش سیستمهایی مانند ChatGPT کاهش یابد و این سیستمها درخواستهای مربوط به اطلاعات خصوصی یا حساس را رد کنند.»
هرچند این اظهارات امیدوارکننده است، اما نمیتوان از وقوع نقضهای احتمالی جلوگیری کرد. برای مثال، در ۲۰۲۳، هکرها با سوءاستفاده از یک آسیبپذیری در کتابخانه Redis ChatGPT، به اطلاعات ذخیرهشده در تاریخچه گفتگوها دسترسی پیدا کردند.
در این هک، اطلاعات شخصی شامل نامها، شمارههای تأمین اجتماعی، عناوین شغلی، آدرسهای ایمیل، شماره تلفنها و حتی پروفایلهای رسانههای اجتماعی افشا شد. اگرچه OpenAI این نقص را برطرف کرد، اما این اقدام نمیتوانست خسارت واردشده به حدود هزاران کاربر را جبران کند.
دغدغه شرکتها درباره حریم خصوصی
نه فقط افراد، بلکه شرکتها نیز با چالشهای جدی در حفظ اطلاعات محرمانه مواجه شدهاند. برای مثال، سامسونگ متوجه شد که بعضی مهندسانش به اشتباه کد حساس خود را در ChatGPT آپلود کردهاند.
در پی این ماجرا، سامسونگ در ۲۰۲۳ استفاده از ChatGPT و دیگر چتباتهای تولیدی را برای امور کاری ممنوع کرد. شرکتهایی همچون بانک آمریکا، Citigroup و JPMorgan نیز اقدام مشابهی انجام دادند.
آگاهی در حال افزایش است، اما هنوز راه زیادی باقی است
اخیراً آگاهی عمومی و دولتی درباره مخاطرات چتباتهای هوش مصنوعی افزایش یافته است، که این روند نویدبخش بهبود امنیت دادههاست.
یکی از گامهای مهم در این زمینه، امضای یک دستور اجرایی توسط رئیسجمهور ایالات متحده، جو بایدن، در ۳۰ اکتبر سال گذشته بود. این دستور بر توسعه و استفاده امن، مطمئن و قابلاعتماد هوش مصنوعی تأکید دارد و اصول کلیدی استفاده از این فناوری را تعیین میکند.
یکی از اولویتهای این دستور این است که «سیستمهای هوش مصنوعی باید به حریم خصوصی احترام بگذارند و از دادههای شخصی محافظت کنند.» اما نحوه اجرای این اصل هنوز مشخص نیست و ممکن است شرکتهای هوش مصنوعی تفسیرهای گوناگونی از آن ارائه دهند.
چگونه میتوانیم از خود محافظت کنیم؟
تا زمانی که قوانین روشنتر و مؤثرتری تدوین شود، بهترین راه دفاع این است که اطلاعات کمتری به اشتراک بگذاریم.