ناظر حفاظت از داده های لهستان تأیید کرده است که تحقیقاتی را در مورد OpenAI در پی شکایت یک متقاضی آغاز کرده است.
دفتر حفاظت از داده های شخصی لهستان تحقیقاتی را در مورد شکایتی علیه ChatGPT OpenAI آغاز کرد. یک متقاضی ناشناس شرکت را به پردازش داده ها به روشی غیرقانونی و غیرقابل اعتماد متهم کرد.
جان نواک، رئیس دفتر حفاظت از داده ها، در 20 سپتامبر گفت که این اولین بار نیست که در مورد انطباق ChatGPT با اصول حفاظت از داده ها و حریم خصوصی اروپا تردید وجود دارد.
این شکایت OpenAI را به پردازش غیرقانونی و غیرقابل اعتماد داده ها و عدم شفافیت در مورد قوانین جمع آوری و پردازش داده ها متهم می کند.
به یاد دارید زمانی که اشاره کردیم که چشم انداز نظارتی هوش مصنوعی در لهستان در مراحل ابتدایی خود است؟ در اینجا یک پیشرفت کوچک اما مهم دیگر وجود دارد.
دفتر حفاظت از داده های شخصی لهستان (@UODOgov_plدر حال بررسی شکایت در خصوص #ChatGPT. شاکی ادعا می کند که #OpenAI…
— secgen.eu (@secgen_eu) 21 سپتامبر 2023
در پرونده خود، متقاضی گفت که ChatGPT اطلاعات نادرستی درباره او تولید کرده است و درخواست های او برای استفاده از حقوق خود تحت مقررات حفاظت از داده های عمومی اروپا (GDPR) توسط OpenAI برآورده نشده است.
با این حال، نواک اذعان کرد که طرح دعوای پیشنهادی علیه OpenAI میتواند دشوار باشد زیرا شرکتی در خارج از اتحادیه اروپا را شامل میشود.
نواک گفت: «این پرونده به نقض بسیاری از مقررات مربوط به حفاظت از دادههای شخصی مربوط میشود، بنابراین ما از هوش مصنوعی Open میخواهیم به یک سری سؤالات پاسخ دهد تا مراحل اداری را به طور کامل انجام دهیم.»
در همین حال، جاکوب گروسکوفسکی، معاون دفتر لهستان، گفت که اتهامات موجود در این شکایت باعث ایجاد تردید در مورد رویکرد OpenAI به اصول اروپایی در مورد حفاظت از داده های شخصی می شود.
او افزود، بنابراین دفتر این تردیدها را به ویژه در زمینه اصل اساسی حریم خصوصی با طراحی مندرج در GDPR روشن خواهد کرد.
مرتبط: تنظیمکنندههای آلمانی تحقیقاتی را در مورد رعایت ChatGPT GDPR آغاز میکنند
این اولین باری نیست که OpenAI با رعایت قوانین GDPR اروپا مخالفت می کند.
در ماه مارس، مقامات ایتالیایی مسئول حفاظت از داده ها اعلام کردند که به طور موقت چت بات هوش مصنوعی ChatGPT را مسدود کرده اند و تحقیقاتی را در مورد نقض مشکوک قوانین حفظ حریم خصوصی داده ها آغاز کرده اند.
ناظر داده ایتالیایی همچنین اعلام کرد که اطلاعات کافی برای کاربران در مورد داده های جمع آوری شده توسط OpenAI وجود ندارد.
گزارشها حاکی از آن است که در ماه آوریل، تنظیمکنندهها در آلمان خواستار پاسخهایی در مورد اهداف و توانایی این شرکت برای پیروی از قوانین سختگیرانه حفظ حریم خصوصی دادههای مندرج در GDPR اتحادیه اروپا بودند.
در همان ماه، هیئت حفاظت از داده اروپا یک گروه کاری ویژه در OpenAI ایجاد کرد.
AI Eye: استفاده واقعی از هوش مصنوعی در رمزنگاری، رقیب GPT-4 گوگل، مزیت هوش مصنوعی برای کارمندان بد
نویسنده: Felix Ng