چرا نباید اطلاعات محرمانه خود را در ChatGPT وارد کنیم؟

ChatGPT این روزها خبرهای زیادی را منتشر کرده است و در کنار ویژگی های فوق العاده اش، نگرانی هایی را نیز ایجاد کرده است. به عنوان مثال، این چت هوش مصنوعی به یک مسئله امنیتی و نقض حریم خصوصی تبدیل شده است زیرا بسیاری از کاربران اطلاعات شخصی خود را در آن به اشتراک می گذارند. باید توجه داشته باشید که ChatGPT هر مکالمه ای را که با آن دارید، از جمله اطلاعات شخصی که به اشتراک می گذارید، ضبط و ذخیره می کند. با این حال، بسیاری از کاربران این را نمی‌دانند زیرا به خط‌مشی رازداری OpenAI و صفحه پرسش‌های متداول توجه نمی‌کنند و فقط با کلیک بر روی دکمه OK طبق معمول از آن عبور می‌کنند.

افشای اطلاعات شخصی برای همه ناخوشایند است، اما برای شرکت های بزرگی که از ChatGPT برای پردازش اطلاعات روزانه خود استفاده می کنند، بارزتر است و می تواند آغاز یک فاجعه بزرگ باشد.

افشای اطلاعات محرمانه سامسونگ از طریق ChatGPT

طبق گفته Gizmodo، کارمندان سامسونگ به طور تصادفی اطلاعات محرمانه را از طریق ChatGPT در سه نوبت در مدت 20 روز فاش کردند! این تنها بخشی از واقعیت این است که شرکت ها به راحتی در معرض خطر لو رفتن اطلاعات شخصی خود به دلیل استفاده نادرست از هوش مصنوعی هستند.

ChatGPT در چشمان عمومی به دلیل مسائل مربوط به حریم خصوصی مورد انتقاد قرار گرفته است، بنابراین سامسونگ در اجازه دادن به این امر به شدت سهل انگاری کرد. برخی از کشورها حتی ChatGPT را برای محافظت از شهروندان خود تا زمانی که قوانین حریم خصوصی آنها بهبود نیابد ممنوع کرده اند. بنابراین منطقی است که شرکت ها در مورد نحوه استفاده کارکنانشان از این فناوری نوظهور دقت بیشتری داشته باشند.

  برندگان جوایز امی 2022 اعلام شدند. سرب برای ارث

ChatGPT

خوشبختانه، حداقل در حال حاضر، مشتریان سامسونگ به نظر ایمن هستند و تنها اطلاعات فاش شده مربوط به سیاست های داخلی کسب و کار، کد اختصاصی خصوصی و صورتجلسات جلسه تیم است که همگی توسط مقامات شرکت با ChatGPT به اشتراک گذاشته شده است. اما نکته اینجاست که افشای اطلاعات شخصی کاربران به همین راحتی توسط کارمندان شرکت های بزرگ قابل انجام است و به نظر می رسد دیر یا زود شاهد چنین اتفاقی باشیم. اگر این اتفاق بیفتد، می‌توان انتظار داشت که شاهد افزایش زیادی در کلاهبرداری‌های فیشینگ و جعل هویت باشیم.

در این میان خطر دیگری نیز وجود دارد. اگر کارمندان شرکت از ChatGPT برای رفع اشکالات نرم افزاری در محصولات خود استفاده کنند (مانند آنچه در مورد سامسونگ اتفاق افتاد)، کدی که در جعبه چت تایپ می کنند نیز در سرورهای OpenAI ذخیره می شود که می تواند منجر به آسیب پذیری های جدید در امنیت و هک های بعدی شود. تأثیر زیاد بر شرکت ها هنگام عیب یابی محصولات و برنامه های منتشر نشده. حتی ممکن است شاهد افشای اطلاعاتی مانند طرح‌های تجاری منتشر نشده، نسخه‌های آتی و نمونه‌های اولیه باشیم که می‌تواند منجر به خسارات مالی هنگفتی برای شرکت‌ها شود.


بیشتر بخوانید:


ChatGPT چگونه اطلاعات را فاش می کند؟

سیاست حفظ حریم خصوصی ChatGPT به وضوح بیان می کند که این ابزار چت هوش مصنوعی مکالمات شما را ضبط می کند و گزارش های آنها را با سایر شرکت ها و مربیان هوش مصنوعی آنها به اشتراک می گذارد. هنگامی که شخصی (به عنوان مثال یک کارمند سامسونگ) اطلاعات محرمانه را در یک کادر محاوره ای وارد می کند، این اطلاعات در سرورهای ChatGPT ثبت و ذخیره می شود.

  Hi-Fi Rush از سال 2017 در حال توسعه است

بسیار بعید است که کارمندان عمداً این کار را انجام دهند، و این چیزی است که آن را بسیار ترسناک می کند. بیشتر نقض‌های داده‌ها معمولاً ناشی از خطای انسانی است و اغلب به این دلیل است که شرکت‌ها نتوانسته‌اند به درستی کارکنان خود را در مورد خطرات حریم خصوصی استفاده از ابزارهایی مانند هوش مصنوعی آموزش دهند.

ChatGPT

به عنوان مثال، اگر یک کارمند لیست طولانی و گسترده ای از کاربران شرکت را وارد ChatGPT کند تا کار خود را ساده کند و از هوش مصنوعی بخواهد شماره تلفن مشتریان را از سایر داده ها جدا کند، ChatGPT همه نام ها و شماره تلفن ها را در سوابق خود نگه می دارد. به زبان ساده، اطلاعات شخصی شما با شرکت هایی به اشتراک گذاشته می شود که آنها نباید به آنها دسترسی داشته باشند، و این شرکت ها احتمالاً در مورد حفظ داده ها خیلی جدی نخواهند بود.

نتیجه: اطلاعات محرمانه خود را با ChatGPT به اشتراک نگذارید

شما می توانید با خیال راحت از ChatGPT در کارهای مختلف خود استفاده کنید، اما هرگز نباید اطلاعات محرمانه را با این ابزار به اشتراک بگذارید. شما باید مراقب باشید و از نوشتن هر چیزی که شخصی است خودداری کنید. شامل نام، آدرس، ایمیل و شماره تلفن. این اشتباه می تواند به راحتی در حین مکالمه اتفاق بیفتد، بنابراین باید مراقب باشید که سوالات خود را به دقت به هوش مصنوعی بررسی کنید تا مطمئن شوید که هیچ چیز محرمانه ای به طور تصادفی وارد نشده است.

افشای اطلاعات محرمانه سامسونگ به ما نشان می دهد که خطر نشت اطلاعات مربوط به ChatGPT چقدر واقعی است. متأسفانه در آینده بیشتر شاهد این نوع خطاها خواهیم بود و شاید اثرات آن بسیار بزرگتر و شدیدتر باشد. زیرا هوش مصنوعی روز به روز در حال رشد است و به بخش عمده ای از فرآیندهای کاری اکثر کسب و کارها تبدیل می شود.

  قیمت هارد دیسک به لطف فناوری جدید یک پنجم کاهش یافته است

دیدگاهتان را بنویسید