» هوش مصنوعی » چرا نباید اطلاعات شخصی با چت‌بات‌های هوش مصنوعی به اشتراک بگذاریم؟
چرا نباید اطلاعات شخصی خود را با ChatGPT یا دیگر چت‌بات‌های هوش مصنوعی به اشتراک بگذاریم؟ با وجود جذابیتشان، خطر در کمین است! جای هیچ تردیدی نیست که ChatGPT و سایر چت‌بات‌های هوش مصنوعی، همدم‌های گفتگویی شگفت‌انگیزی هستند که می‌توانند درباره تقریباً هر موضوعی با شما صحبت کنند.
هوش مصنوعی

چرا نباید اطلاعات شخصی با چت‌بات‌های هوش مصنوعی به اشتراک بگذاریم؟

دی 3, 1403 1070

چرا نباید اطلاعات شخصی خود را با ChatGPT یا دیگر چت‌بات‌های هوش مصنوعی به اشتراک بگذاریم؟

با وجود جذابیتشان، خطر در کمین است!

جای هیچ تردیدی نیست که ChatGPT و سایر چت‌بات‌های هوش مصنوعی، همدم‌های گفتگویی شگفت‌انگیزی هستند که می‌توانند درباره تقریباً هر موضوعی با شما صحبت کنند.

توانایی آن‌ها در مکالمه به حدی است که ممکن است احساس امنیت کنید و جزئیات شخصی‌تان را با آن‌ها در میان بگذارید؛ اگر چنین حسی دارید، تنها نیستید. اما شما در حال گفتگو با یک دستگاه ساده نیستید. هر اطلاعاتی که با چت‌باتی هوشمند در میان بگذارید، ممکن است در سرورهایی ذخیره شود و در آینده از انها استفاده بشه.

چرا <yoastmark class=

چت‌بات‌ها چرا خطرناک هستند؟

ریشهٔ مشکل در نحوه استفاده شرکت‌های مدیریت‌کننده مدل‌های زبانی بزرگ (LLM) از داده‌های شخصی کاربران است. این شرکت‌ها از اطلاعات شما برای آموزش و ارتقای عملکرد چت‌بات‌ها بهره می‌گیرند.

در شرایط استفادهٔ OpenAI به صراحت آمده است که این شرکت حق دارد از اطلاعاتی که کاربران ارائه می‌دهند برای بهبود مدل‌های خود استفاده کند. به همین دلیل است که ChatGPT هر چیزی که بهش گفتید رو ذخیره میکنه. مگر این‌که از ویژگی جدید حفظ حریم خصوصی آن استفاده کنید که به شما اجازه می‌دهد تاریخچه گفت‌وگو ذخیره نشود.

اگر چنین تنظیماتی را فعال نکنید، هر اطلاعاتی که به اشتراک می‌گذارید، مانند اطلاعات مالی، گذرواژه‌ها، نشانی منزل، شماره تلفن یا حتی جزئیات ساده‌ای نظیر آنچه برای صبحانه خورده‌اید، می‌تواند ثبت شود. همچنین، هر فایل یا بازخوردی که ارائه کنید نیز ذخیره خواهد شد.

این شرکت همچنین ممکن است اطلاعات شخصی شما را «ناشناس‌سازی» کند و از داده‌های جمع آوری شده برای تحلیل عملکرد خدمات خود بهره گیرد. این نکته، اگرچه ظاهراً کوچک به نظر می‌رسد، اما دریچه‌ای می‌گشاید که اطلاعاتی که چت‌بات از شما آموخته است، ممکن است در آینده به نحوی در دسترس عموم قرار گیرد مسئله‌ای که عمیقاً نگران‌کننده است.

 

چرا باید نگران باشیم؟

البته باید منصف بود. احتمال سوءاستفاده عمدی شرکت‌ها از داده‌های کاربران بسیار کم است. در سال‌های اخیر، OpenAI تلاش کرده است تا کاربران خود را نسبت به نحوه گردآوری و استفاده از اطلاعاتشان مطمئن سازد.

برای مثال، در فوریه امسال، هنگامی که سازمان حفاظت از داده‌های ایتالیا (DPA) OpenAI را به نقض مقررات حفاظت از داده‌های عمومی اتحادیه اروپا (GDPR) متهم کرد، این شرکت به BBC اعلام کرد: هدف ما این است که هوش مصنوعی درباره جهان بیاموزد، نه درباره افراد خصوصی.

همچنین افزود: «ما به طور فعال تلاش می‌کنیم تا داده‌های شخصی در فرآیند آموزش سیستم‌هایی مانند ChatGPT کاهش یابد و این سیستم‌ها درخواست‌های مربوط به اطلاعات خصوصی یا حساس را رد کنند.»

هرچند این اظهارات امیدوارکننده است، اما نمی‌توان از وقوع نقض‌های احتمالی جلوگیری کرد. برای مثال، در ۲۰۲۳، هکرها با سوءاستفاده از یک آسیب‌پذیری در کتابخانه Redis ChatGPT، به اطلاعات ذخیره‌شده در تاریخچه گفتگوها دسترسی پیدا کردند.

در این هک، اطلاعات شخصی شامل نام‌ها، شماره‌های تأمین اجتماعی، عناوین شغلی، آدرس‌های ایمیل، شماره تلفن‌ها و حتی پروفایل‌های رسانه‌های اجتماعی افشا شد. اگرچه OpenAI این نقص را برطرف کرد، اما این اقدام نمی‌توانست خسارت واردشده به حدود هزاران کاربر را جبران کند.

چرا نباید اطلاعات شخصی با چت‌بات‌های هوش مصنوعی به اشتراک بگذاریم؟
چرا نباید اطلاعات شخصی با چت‌بات‌های هوش مصنوعی به اشتراک بگذاریم؟

دغدغه شرکت‌ها درباره حریم خصوصی

نه فقط افراد، بلکه شرکت‌ها نیز با چالش‌های جدی در حفظ اطلاعات محرمانه مواجه شده‌اند. برای مثال، سامسونگ متوجه شد که بعضی مهندسانش به اشتباه کد حساس خود را در ChatGPT آپلود کرده‌اند.

در پی این ماجرا، سامسونگ در ۲۰۲۳ استفاده از ChatGPT و دیگر چت‌بات‌های تولیدی را برای امور کاری ممنوع کرد. شرکت‌هایی همچون بانک آمریکا، Citigroup و JPMorgan نیز اقدام مشابهی انجام دادند.

آگاهی در حال افزایش است، اما هنوز راه زیادی باقی است

اخیراً آگاهی عمومی و دولتی درباره مخاطرات چت‌بات‌های هوش مصنوعی افزایش یافته است، که این روند نویدبخش بهبود امنیت داده‌هاست.

یکی از گام‌های مهم در این زمینه، امضای یک دستور اجرایی توسط رئیس‌جمهور ایالات متحده، جو بایدن، در ۳۰ اکتبر سال گذشته بود. این دستور بر توسعه و استفاده امن، مطمئن و قابل‌اعتماد هوش مصنوعی تأکید دارد و اصول کلیدی استفاده از این فناوری را تعیین می‌کند.

یکی از اولویت‌های این دستور این است که «سیستم‌های هوش مصنوعی باید به حریم خصوصی احترام بگذارند و از داده‌های شخصی محافظت کنند.» اما نحوه اجرای این اصل هنوز مشخص نیست و ممکن است شرکت‌های هوش مصنوعی تفسیرهای گوناگونی از آن ارائه دهند.

 

چگونه می‌توانیم از خود محافظت کنیم؟

تا زمانی که قوانین روشن‌تر و مؤثرتری تدوین شود، بهترین راه دفاع این است که اطلاعات کمتری به اشتراک بگذاریم.

 

به این نوشته امتیاز بدهید!

محمدرضا شیرین آبادی

محمدرضا شیرین آبادی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×