برای جلوگیری از نشت داده ها، فناوری های بزرگ استفاده از چت ربات های هوش مصنوعی را برای کارکنان خود محدود می کنند.



مقاله توسط سایت محتوا مارکتینگ

زمان رو به اتمام است در حالی که دولت ها و جوامع فناوری در سراسر جهان در حال بحث درباره سیاست های هوش مصنوعی هستند. نگرانی اصلی حفظ بشریت در برابر اطلاعات نادرست و همه خطرات ناشی از آن است.

و اکنون که ترس ها به حریم خصوصی داده ها مربوط می شود، بحث داغ شده است. آیا تا به حال به خطرات به اشتراک گذاری اطلاعات خود با استفاده از ChatGPT، Bard یا سایر ربات های چت هوش مصنوعی فکر کرده اید؟

اگر ندانید، شاید هنوز ندانید که غول های فناوری اقدامات جدی برای جلوگیری از نشت اطلاعات انجام داده اند.

در اوایل ماه مه، پس از افشای تصادفی داده‌های حساس به ChatGPT، سامسونگ به کارکنان خود از سیاست داخلی جدیدی اطلاع داد که ابزارهای هوش مصنوعی را در دستگاه‌های در حال اجرا در شبکه‌هایشان محدود می‌کند.

این شرکت در حال بررسی اقداماتی برای ایجاد یک محیط امن برای استفاده ایمن از هوش مصنوعی مولد برای افزایش بهره‌وری و کارایی کارکنان است.سخنگوی سامسونگ گفت TechCrunch.

و آنها همچنین توضیح دادند که این شرکت به طور موقت استفاده از هوش مصنوعی مولد را از طریق دستگاه های شرکت محدود می کند تا زمانی که اقدامات امنیتی آماده شود.

غول دیگری که دست به اقدامی مشابه زد اپل بود. بر اساس wsjرقیب سامسونگ نیز نگران افشای اطلاعات محرمانه است. بنابراین، محدودیت‌های آنها شامل ChatGPT و همچنین برخی از ابزارهای هوش مصنوعی است که برای نوشتن کد استفاده می‌شوند، در حالی که آنها در حال توسعه فناوری مشابه هستند.

حتی در اوایل سال جاری، یک وکیل آمازون از کارمندان خواست که هیچ اطلاعات یا کدی را با چت ربات‌های هوش مصنوعی به اشتراک نگذارند، پس از اینکه شرکت پاسخ‌های ChatGPT مشابه داده‌های داخلی آمازون را یافت.

علاوه بر فناوری‌های بزرگ، بانک‌هایی مانند بانک آمریکا و دویچه بانک نیز در داخل اقدامات محدودکننده‌ای را برای جلوگیری از نشت اطلاعات مالی اعمال می‌کنند.

و لیست همچنان در حال رشد است. حدس بزن چی شده! حتی گوگل هم به آن پیوست.

حتی شما در گوگل؟

به گفته منابع ناشناس رویترز، هفته گذشته شرکت آلفابت (والد گوگل) به کارمندان خود توصیه کردند که اطلاعات محرمانه را در چت ربات های هوش مصنوعی وارد نکنند. از قضا، این شامل هوش مصنوعی خود آنها، Bard نیز می شود که در ماه مارس گذشته در ایالات متحده راه اندازی شد و در حال انتشار به 180 کشور دیگر به 40 زبان است.

تصمیم گوگل به دلیل کشف محققان است که چت بات‌ها می‌توانند داده‌های وارد شده را از طریق میلیون‌ها درخواست بازتولید کنند و آن‌ها را در دسترس بازبین‌های انسانی قرار دهند.

آلفابت به مهندسان خود هشدار داد که از درج کد در چت ربات ها خودداری کنند زیرا هوش مصنوعی می تواند آنها را بازتولید کند و به طور بالقوه باعث نشت داده های محرمانه فناوری آنها شود. ناگفته نماند که به نفع رقیب هوش مصنوعی خود، ChatGPT هستند.

گوگل تأیید می کند که قصد دارد در مورد محدودیت های فناوری خود شفاف باشد و اعلامیه حریم خصوصی را به روز کرد که از کاربران می خواهد “اطلاعات محرمانه یا حساس را در مکالمات خود با بارد لحاظ نکنند.”

100k+ حساب ChatGPT در Dark Web Marketplace

یکی دیگر از عواملی که می‌تواند داده‌های حساس را ایجاد کند، با محبوبیت روزافزون ربات‌های چت هوش مصنوعی، کارمندانی در سراسر جهان است که از آن‌ها برای بهینه‌سازی روال خود استفاده می‌کنند. بیشتر اوقات بدون هیچ احتیاط و نظارت.

دیروز Group-IB، یکی از رهبران راه حل های امنیت سایبری جهانی مستقر در سنگاپور، گزارش داد که آنها بیش از 100 هزار حساب ChatGPT در معرض خطر را پیدا کردند که با اطلاعات کاربری ذخیره شده در گزارش های خود آلوده شده بودند. این اطلاعات سرقت شده از سال گذشته در بازارهای وب تاریک غیرقانونی معامله شده است. آنها تاکید کردند که ChatGPT به‌طور پیش‌فرض، تاریخچه پرس‌و‌جوها و پاسخ‌های هوش مصنوعی را ذخیره می‌کند و فقدان مراقبت‌های ضروری بسیاری از شرکت‌ها و کارمندان آنها را در معرض دید قرار می‌دهد.

مقررات فشار دولت

نه تنها شرکت ها از نشت اطلاعات توسط هوش مصنوعی می ترسند. در ماه مارس، پس از شناسایی نقض اطلاعات در OpenAI که به کاربران اجازه می‌دهد عناوین مکالمات سایر کاربران را با ChatGPT مشاهده کنند، ایتالیا به OpenAi دستور داد پردازش داده‌های کاربران ایتالیایی را متوقف کند.

این باگ در ماه مارس توسط OpenAi تایید شد. «ما به دلیل یک اشکال در یک کتابخانه منبع باز، مشکل مهمی در ChatGPT داشتیم، که اکنون رفع آن منتشر شده است و ما به تازگی اعتبارسنجی را به پایان رسانده ایم. درصد کمی از کاربران توانستند عناوین تاریخچه مکالمه سایر کاربران را ببینند. ما نسبت به این موضوع احساس بدی داریم.» سام آلتمن در حساب توییتر خود گفت در آن زمان

انگلستان در مورد خود منتشر کرد وب سایت رسمی مقاله سفید هوش مصنوعی برای هدایت نوآوری مسئولانه و اعتماد عمومی با در نظر گرفتن این پنج اصل راه اندازی شد:

  • ایمنی، امنیت و استحکام؛
  • شفافیت و توضیح پذیری؛
  • انصاف
  • مسئولیت پذیری و حکمرانی؛
  • و قابل اعتراض و جبران خسارت.

همانطور که می بینیم، با حضور بیشتر هوش مصنوعی در زندگی ما، به خصوص با سرعتی که در آن رخ می دهد، نگرانی های جدیدی به طور طبیعی ایجاد می شود. در حالی که توسعه دهندگان برای کاهش خطرات بدون به خطر انداختن تکامل چیزی که قبلاً به عنوان یک گام بزرگ به سوی آینده می شناسیم، اقدامات امنیتی ضروری می شوند.

آیا می خواهید همچنان با بهترین شیوه های بازاریابی به روز شوید؟ اکیداً به شما پیشنهاد می کنم مشترک The Beat شوید، خبرنامه تعاملی محتوا مارکتینگ. ما تمام گرایش های مهم در چشم انداز بازاریابی دیجیتال را پوشش می دهیم. آنجا میبینمت!





محتوا مارکتینگ

توسط psychen

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *