ممنوعیت دسترسی به Chat GPT در ایتالیا

پایگاه خبری اختبار- یک نهاد نظارتی در ایتالیا ممنوعیت فوری دسترسی به ربات‌ چتِ محبوبِ مبتنی بر هوش مصنوعی ساخته شرکت آمریکایی «اُپن اِی.آی. / OpenAI»  را صادر کرد.

به گزارش اختبار به نقل از یورونیوز سازمان ملی ایتالیا برای حفاظت از داده‌‌های شخصی روز گذشته ۳۱ مارس (۱۱ فروردین) در بیانیه ای ممنوعیت دسترسی به ربات Chat GPT به دلیل ادعای نقض حریم خصوصی صادر کرد.

در این بیانیه‌ آمده است که «چت جی.پی.تی. / ChatGPT» «در تاریخ بیستم مارس در خصوص مکالمات کاربران و جزئیات پرداختی مشترکان خدمات پرداخت، دچار نقض داده شده است».

این ناظر گفت که این تصمیم «فورا اجرایی خواهد شد» و منجر به «محدودیت موقت پردازش داده‌های کاربران ایتالیایی از سوی OpenAI [مالک چت جی.پی.تی.] می‌شود.»

«چت جی‌پی‌تی» در نوامبر ۲۰۲۲ راه‌اندازی شد و از آن زمان بسیار محبوب شده است. این ربات توانایی این را دارد تا مسائل پیچیده را به طور واضح و مختصر توضیح دهد، به سبک‌ها و زبان‌های مختلف بنویسد.

دلایل فنی مطرح شده چیست؟

این سازمان مقرراتی ایتالیایی در وهله‌ی اول، «چت جی‌پی‌تی» را به دلیل «عدم ارائه اخطار اطلاعاتی» به کاربرانی که داده‌های آنها توسط OpenAI جمع‌آوری می‌شود واکنش نشان داد؛ و نسبت به «فقدان مبنای قانونی برای جمع‌آوری و ذخیره‌سازی انبوه داده‌های شخصی با هدف آموزش الگوریتم‌هایی که این پلتفرم را اجرا می‌کنند» انتقاد کرد.

علاوه بر این، در حالی که این ربات برای کاربران بالای ۱۳ سال در نظر گرفته شده است، اما به گفته نهاد نظارتی ایتالیا، «عدم وجود فیلتر برای تأیید سن کاربران، خردسالان را در معرض پاسخ‌هایی قرار می‌دهد که مطابق با سطح رشد آن‌ها نیست.»

این سازمان از OpenAI خواسته است تا برای اصلاح این وضعیت، اقدامات لازم را ظرف ۲۰ روز اعلام کند، در غیر این صورت امکان دارد تا ۴ درصد از گردش مالی سالانه خود در سراسر جهان جریمه می‌شود.

بیشتر بخوانید:

این اعلامیه در حالی منتشر می‌شود که آژانس پلیسی اروپا موسوم به «یوروپل» روز دوشنبه هشدار داد که مجرمان اینترنتی در کمین هستند تا با استفاده از چت ربات‌های هوش مصنوعی برای ارتکاب کلاهبرداری و سایر جرایم سایبری به اهداف خود دست یابند.

یوروپل در گزارشی اعلام کرد که قابلیت‌ رو به رشد چت بات‌ها احتمالا به سرعت توسط افرادی که قصد سوء استفاده دارند به طرق مختلف همچون «فیشینگ / phishing» و درز اطلاعات نادرست و بدافزارها، مورد سوء استفاده قرار می‌گیرند.

ایلان ماسک و صدها کارشناس دیگر در سطح جهان، این هفته هشدار دادند که سامانه‌های هوش مصنوعی «خطرات عمیقی برای جامعه و بشریت» دارند و از شرکت‌ها خواستند که توسعه بیشتر این فناوری را حداقل برای شش ماه متوقف کنند.

منبع: یورونیوز

نمایش بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا