تنظیمکنندههای ایتالیایی میگویند که ChatGPT باید تا 30 آوریل از قوانین محلی و GDPR پیروی کند، اما کارشناسان هوش مصنوعی میگویند معماری این مدل، چنین انطباق را تقریبا غیرممکن میکند.
OpenAI ممکن است به زودی با بزرگترین چالش نظارتی خود مواجه شود، زیرا مقامات ایتالیایی اصرار دارند که این شرکت تا 30 آوریل فرصت دارد تا با قوانین حفاظت از داده ها و حریم خصوصی محلی و اروپایی مطابقت داشته باشد، وظیفه ای که کارشناسان هوش مصنوعی (AI) می گویند تقریبا غیرممکن است.
مقامات ایتالیایی در اواخر ماه مارس ممنوعیتی را برای محصولات GPT OpenAI صادر کردند و به اولین کشور غربی تبدیل شدند که به طور کامل از این محصولات اجتناب کردند. این اقدام پس از نقض داده انجام شد که در آن مشتریان ChatGPT و GPT API می توانستند داده های تولید شده توسط سایر کاربران را ببینند.
در دستور خود، SA ایتالیا تأکید می کند که هیچ اطلاعاتی به کاربران و افراد داده ای که داده های آنها توسط Open AI جمع آوری شده است، ارائه نمی شود. مهمتر از آن، به نظر میرسد هیچ مبنای قانونی برای جمعآوری و پردازش گسترده دادههای شخصی به منظور «آموزش» الگوریتمهایی که پلتفرم بر آنها تکیه دارد، وجود ندارد.
بر اساس مقررات عمومی حفاظت از داده اتحادیه اروپا (GDPR)، شرکتهای فناوری باید رضایت کاربر را برای آموزش محصولات خود با دادههای شخصی دریافت کنند. علاوه بر این، شرکتهایی که در اروپا فعالیت میکنند باید به اروپاییها این امکان را بدهند که از جمعآوری و اشتراکگذاری دادهها خودداری کنند.
به گفته کارشناسان، این یک چالش دشوار برای OpenAI خواهد بود، زیرا مدلهای آن بر روی دادههای عظیمی که از اینترنت جدا شده و در مجموعههای آموزشی ترکیب میشوند، آموزش میبینند. هدف این شکل از آموزش جعبه سیاه ایجاد الگویی به نام «ظهور» است، که در آن ویژگیهای مفید بهطور غیرقابل پیشبینی در مدلها ظاهر میشوند.