کارشناسان می گویند OpenAI تا 30 آوریل فرصت دارد تا با قوانین اتحادیه اروپا مطابقت داشته باشد، تقریبا غیرممکن است.

IMG_20230420_092659_457

تنظیم‌کننده‌های ایتالیایی می‌گویند که ChatGPT باید تا 30 آوریل از قوانین محلی و GDPR پیروی کند، اما کارشناسان هوش مصنوعی می‌گویند معماری این مدل، چنین انطباق را تقریبا غیرممکن می‌کند.

OpenAI ممکن است به زودی با بزرگترین چالش نظارتی خود مواجه شود، زیرا مقامات ایتالیایی اصرار دارند که این شرکت تا 30 آوریل فرصت دارد تا با قوانین حفاظت از داده ها و حریم خصوصی محلی و اروپایی مطابقت داشته باشد، وظیفه ای که کارشناسان هوش مصنوعی (AI) می گویند تقریبا غیرممکن است.

 مقامات ایتالیایی در اواخر ماه مارس ممنوعیتی را برای محصولات GPT OpenAI صادر کردند و به اولین کشور غربی تبدیل شدند که به طور کامل از این محصولات اجتناب کردند. این اقدام پس از نقض داده انجام شد که در آن مشتریان ChatGPT و GPT API می توانستند داده های تولید شده توسط سایر کاربران را ببینند.

در دستور خود، SA ایتالیا تأکید می کند که هیچ اطلاعاتی به کاربران و افراد داده ای که داده های آنها توسط Open AI جمع آوری شده است، ارائه نمی شود. مهمتر از آن، به نظر می‌رسد هیچ مبنای قانونی برای جمع‌آوری و پردازش گسترده داده‌های شخصی به منظور «آموزش» الگوریتم‌هایی که پلتفرم بر آن‌ها تکیه دارد، وجود ندارد.

 بر اساس مقررات عمومی حفاظت از داده اتحادیه اروپا (GDPR)، شرکت‌های فناوری باید رضایت کاربر را برای آموزش محصولات خود با داده‌های شخصی دریافت کنند. علاوه بر این، شرکت‌هایی که در اروپا فعالیت می‌کنند باید به اروپایی‌ها این امکان را بدهند که از جمع‌آوری و اشتراک‌گذاری داده‌ها خودداری کنند.

 به گفته کارشناسان، این یک چالش دشوار برای OpenAI خواهد بود، زیرا مدل‌های آن بر روی داده‌های عظیمی که از اینترنت جدا شده و در مجموعه‌های آموزشی ترکیب می‌شوند، آموزش می‌بینند. هدف این شکل از آموزش جعبه سیاه ایجاد الگویی به نام «ظهور» است، که در آن ویژگی‌های مفید به‌طور غیرقابل پیش‌بینی در مدل‌ها ظاهر می‌شوند.

Related Posts

Leave a comment