مقاله توسط سایت محتوا مارکتینگ
زمان رو به اتمام است در حالی که دولت ها و جوامع فناوری در سراسر جهان در حال بحث درباره سیاست های هوش مصنوعی هستند. نگرانی اصلی حفظ بشریت در برابر اطلاعات نادرست و همه خطرات ناشی از آن است.
و اکنون که ترس ها به حریم خصوصی داده ها مربوط می شود، بحث داغ شده است. آیا تا به حال به خطرات به اشتراک گذاری اطلاعات خود با استفاده از ChatGPT، Bard یا سایر ربات های چت هوش مصنوعی فکر کرده اید؟
اگر ندانید، شاید هنوز ندانید که غول های فناوری اقدامات جدی برای جلوگیری از نشت اطلاعات انجام داده اند.
در اوایل ماه مه، پس از افشای تصادفی دادههای حساس به ChatGPT، سامسونگ به کارکنان خود از سیاست داخلی جدیدی اطلاع داد که ابزارهای هوش مصنوعی را در دستگاههای در حال اجرا در شبکههایشان محدود میکند.
“این شرکت در حال بررسی اقداماتی برای ایجاد یک محیط امن برای استفاده ایمن از هوش مصنوعی مولد برای افزایش بهرهوری و کارایی کارکنان است.سخنگوی سامسونگ گفت TechCrunch.
و آنها همچنین توضیح دادند که این شرکت به طور موقت استفاده از هوش مصنوعی مولد را از طریق دستگاه های شرکت محدود می کند تا زمانی که اقدامات امنیتی آماده شود.
غول دیگری که دست به اقدامی مشابه زد اپل بود. بر اساس wsjرقیب سامسونگ نیز نگران افشای اطلاعات محرمانه است. بنابراین، محدودیتهای آنها شامل ChatGPT و همچنین برخی از ابزارهای هوش مصنوعی است که برای نوشتن کد استفاده میشوند، در حالی که آنها در حال توسعه فناوری مشابه هستند.
حتی در اوایل سال جاری، یک وکیل آمازون از کارمندان خواست که هیچ اطلاعات یا کدی را با چت رباتهای هوش مصنوعی به اشتراک نگذارند، پس از اینکه شرکت پاسخهای ChatGPT مشابه دادههای داخلی آمازون را یافت.
علاوه بر فناوریهای بزرگ، بانکهایی مانند بانک آمریکا و دویچه بانک نیز در داخل اقدامات محدودکنندهای را برای جلوگیری از نشت اطلاعات مالی اعمال میکنند.
و لیست همچنان در حال رشد است. حدس بزن چی شده! حتی گوگل هم به آن پیوست.
حتی شما در گوگل؟
به گفته منابع ناشناس رویترز، هفته گذشته شرکت آلفابت (والد گوگل) به کارمندان خود توصیه کردند که اطلاعات محرمانه را در چت ربات های هوش مصنوعی وارد نکنند. از قضا، این شامل هوش مصنوعی خود آنها، Bard نیز می شود که در ماه مارس گذشته در ایالات متحده راه اندازی شد و در حال انتشار به 180 کشور دیگر به 40 زبان است.
تصمیم گوگل به دلیل کشف محققان است که چت باتها میتوانند دادههای وارد شده را از طریق میلیونها درخواست بازتولید کنند و آنها را در دسترس بازبینهای انسانی قرار دهند.
آلفابت به مهندسان خود هشدار داد که از درج کد در چت ربات ها خودداری کنند زیرا هوش مصنوعی می تواند آنها را بازتولید کند و به طور بالقوه باعث نشت داده های محرمانه فناوری آنها شود. ناگفته نماند که به نفع رقیب هوش مصنوعی خود، ChatGPT هستند.
گوگل تأیید می کند که قصد دارد در مورد محدودیت های فناوری خود شفاف باشد و اعلامیه حریم خصوصی را به روز کرد که از کاربران می خواهد “اطلاعات محرمانه یا حساس را در مکالمات خود با بارد لحاظ نکنند.”
100k+ حساب ChatGPT در Dark Web Marketplace
یکی دیگر از عواملی که میتواند دادههای حساس را ایجاد کند، با محبوبیت روزافزون رباتهای چت هوش مصنوعی، کارمندانی در سراسر جهان است که از آنها برای بهینهسازی روال خود استفاده میکنند. بیشتر اوقات بدون هیچ احتیاط و نظارت.
دیروز Group-IB، یکی از رهبران راه حل های امنیت سایبری جهانی مستقر در سنگاپور، گزارش داد که آنها بیش از 100 هزار حساب ChatGPT در معرض خطر را پیدا کردند که با اطلاعات کاربری ذخیره شده در گزارش های خود آلوده شده بودند. این اطلاعات سرقت شده از سال گذشته در بازارهای وب تاریک غیرقانونی معامله شده است. آنها تاکید کردند که ChatGPT بهطور پیشفرض، تاریخچه پرسوجوها و پاسخهای هوش مصنوعی را ذخیره میکند و فقدان مراقبتهای ضروری بسیاری از شرکتها و کارمندان آنها را در معرض دید قرار میدهد.
مقررات فشار دولت
نه تنها شرکت ها از نشت اطلاعات توسط هوش مصنوعی می ترسند. در ماه مارس، پس از شناسایی نقض اطلاعات در OpenAI که به کاربران اجازه میدهد عناوین مکالمات سایر کاربران را با ChatGPT مشاهده کنند، ایتالیا به OpenAi دستور داد پردازش دادههای کاربران ایتالیایی را متوقف کند.
این باگ در ماه مارس توسط OpenAi تایید شد. «ما به دلیل یک اشکال در یک کتابخانه منبع باز، مشکل مهمی در ChatGPT داشتیم، که اکنون رفع آن منتشر شده است و ما به تازگی اعتبارسنجی را به پایان رسانده ایم. درصد کمی از کاربران توانستند عناوین تاریخچه مکالمه سایر کاربران را ببینند. ما نسبت به این موضوع احساس بدی داریم.» سام آلتمن در حساب توییتر خود گفت در آن زمان
انگلستان در مورد خود منتشر کرد وب سایت رسمی مقاله سفید هوش مصنوعی برای هدایت نوآوری مسئولانه و اعتماد عمومی با در نظر گرفتن این پنج اصل راه اندازی شد:
- ایمنی، امنیت و استحکام؛
- شفافیت و توضیح پذیری؛
- انصاف
- مسئولیت پذیری و حکمرانی؛
- و قابل اعتراض و جبران خسارت.
همانطور که می بینیم، با حضور بیشتر هوش مصنوعی در زندگی ما، به خصوص با سرعتی که در آن رخ می دهد، نگرانی های جدیدی به طور طبیعی ایجاد می شود. در حالی که توسعه دهندگان برای کاهش خطرات بدون به خطر انداختن تکامل چیزی که قبلاً به عنوان یک گام بزرگ به سوی آینده می شناسیم، اقدامات امنیتی ضروری می شوند.
آیا می خواهید همچنان با بهترین شیوه های بازاریابی به روز شوید؟ اکیداً به شما پیشنهاد می کنم مشترک The Beat شوید، خبرنامه تعاملی محتوا مارکتینگ. ما تمام گرایش های مهم در چشم انداز بازاریابی دیجیتال را پوشش می دهیم. آنجا میبینمت!