اولین از بسیاری؟ چگونه ممنوعیت ChatGPT ایتالیا می تواند موجی از مقررات هوش مصنوعی را ایجاد کند


نقض اطلاعات و عدم شفافیت باعث شد ایتالیا چت ربات محبوب مبتنی بر هوش مصنوعی ChatGPT را ممنوع کند و بحثی را در مورد آینده مقررات و نوآوری هوش مصنوعی به راه انداخت.

ایتالیا اخیراً به عنوان اولین کشور غربی که چت ربات محبوب مبتنی بر هوش مصنوعی (AI) ChatGPT را ممنوع کرد، خبرساز شد.

سازمان حفاظت از داده های ایتالیا (IDPA) به OpenAI، شرکت مستقر در ایالات متحده که پشت ChatGPT قرار دارد، دستور داده است تا پردازش داده های کاربران ایتالیایی را تا زمانی که با مقررات حفاظت از داده های عمومی (GDPR)، قانون حریم خصوصی کاربران اتحادیه اروپا مطابقت نداشته باشد، متوقف کند.

IDPA نگرانی‌هایی را در مورد نقض داده‌ها که مکالمات کاربر و اطلاعات پرداخت را افشا می‌کند، عدم شفافیت، و مبنای قانونی برای جمع‌آوری و استفاده از داده‌های شخصی برای آموزش ربات چت مطرح کرده است.

این تصمیم باعث ایجاد بحثی در مورد تأثیرات مقررات هوش مصنوعی بر نوآوری، حریم خصوصی و اخلاقیات شد. این اقدام ایتالیا با انتقادات گسترده‌ای روبرو شد و متئو سالوینی، معاون نخست‌وزیر ایتالیا گفت که این اقدام «بی‌تناسب» و ریاکارانه است، زیرا ده‌ها سرویس مبتنی بر هوش مصنوعی مانند چت بینگ هنوز در این کشور فعال هستند.

سالوینی گفت این ممنوعیت می تواند به تجارت و نوآوری ملی آسیب برساند و استدلال کرد که هر انقلاب تکنولوژیکی “تغییرات، خطرات و فرصت های عمده” را به همراه دارد.

هوش مصنوعی و خطرات حریم خصوصی

در حالی که ممنوعیت قطعی ایتالیا در ChatGPT به طور گسترده در کانال های رسانه های اجتماعی مورد انتقاد قرار گرفت، برخی از کارشناسان استدلال کردند که این ممنوعیت ممکن است موجه باشد. آرون رافرتی، مدیر عامل سازمان غیرمتمرکز خودمختار StandardDAO، به کوین تلگراف گفت که این ممنوعیت “در صورتی که خطرات غیرقابل کنترل حریم خصوصی را به همراه داشته باشد، می تواند توجیه شود.”

رافرتی افزود که پرداختن به چالش‌های گسترده‌تر حریم خصوصی هوش مصنوعی، مانند پردازش داده‌ها و شفافیت، «ممکن است مؤثرتر از تمرکز بر یک سیستم هوش مصنوعی واحد باشد». او استدلال کرد که این اقدام ایتالیا و شهروندانش را “در مسابقه تسلیحاتی هوش مصنوعی با مشکل مواجه کرد” و این “چیزی است که ایالات متحده نیز در حال حاضر با آن دست و پنجه نرم می کند”.

به‌روزرسانی: Shapella ممکن است علی‌رغم خطرات، سرمایه‌گذاران نهادی را به اتریوم بیاورد

وینسنت پیترز، فارغ التحصیل استارلینک و بنیانگذار پروژه توکن بی نظیر Inheritance Art، گفت که این ممنوعیت موجه است و اشاره کرد که GDPR “مجموعه ای جامع از مقررات برای کمک به محافظت از داده های مصرف کننده و اطلاعات شخصی قابل شناسایی است.”

پیترز که رهبری تلاش‌های Starlink برای انطباق با GDPR در سراسر قاره را بر عهده داشت، اظهار داشت که کشورهای اروپایی که به قانون حفظ حریم خصوصی پایبند هستند این موضوع را جدی می‌گیرند، به این معنی که OpenAI باید بتواند نحوه استفاده و یا عدم استفاده از اطلاعات شخصی را بیان یا نشان دهد. . با این حال، او با سالوینی موافق بود و گفت:

همانطور که ChatGPT نباید از بقیه جدا شود، نباید از پرداختن به مسائل حریم خصوصی که تقریباً هر سرویس آنلاین باید به آن رسیدگی کند، حذف شود.

نیکو سبه، رئیس هوش مصنوعی شرکت هوش مصنوعی Humans.ai و استاد یادگیری ماشین در دانشگاه ترنتو در ایتالیا، به کوین تلگراف گفت که همیشه رقابتی بین توسعه فناوری و جنبه های اخلاقی و حریم خصوصی مرتبط با آن وجود داشته است. با آن.

گردش کار ChatGPT. منبع: OpenAI

Sebe گفت که مسابقه همیشه هماهنگ نیست و در این مورد، فناوری حرف اول را می زند، اما او معتقد است که مسائل اخلاقی و حریم خصوصی به زودی مطرح خواهد شد. در حال حاضر، این ممنوعیت “قابل درک” بود تا “OpenAI بتواند با مقررات محلی در مورد مدیریت داده ها و حریم خصوصی مطابقت داشته باشد.”

ناسازگاری به ایتالیا محدود نمی شود. با نزدیک شدن جهان به هوش عمومی مصنوعی، اصطلاحی که برای توصیف هوش مصنوعی که می تواند هر وظیفه فکری را انجام دهد، سایر دولت ها قوانین خود را برای هوش مصنوعی ایجاد می کنند. در حالی که بریتانیا برنامه‌های خود را برای تنظیم مقررات هوش مصنوعی اعلام می‌کند، به نظر می‌رسد اتحادیه اروپا موضع محتاطانه‌ای را از طریق قانون هوش مصنوعی اتخاذ می‌کند که استفاده از هوش مصنوعی را در حوزه‌های مختلف حیاتی مانند دستگاه‌های پزشکی و وسایل نقلیه خودران تا حد زیادی محدود می‌کند.

آیا سابقه ای ایجاد شده است؟

ایتالیا ممکن است آخرین کشوری نباشد که ChatGPT را ممنوع کرده است. تصمیم IDPA برای ممنوعیت ChatGPT می تواند سابقه ای برای سایر کشورها یا مناطق ایجاد کند و این می تواند عواقب قابل توجهی برای شرکت های جهانی هوش مصنوعی داشته باشد. Rafferty از StandardDAO گفت:

«تصمیم ایتالیا ممکن است سابقه ای برای سایر کشورها یا مناطق ایجاد کند، اما عوامل خاص حوزه قضایی نحوه پاسخگویی آنها به نگرانی های حریم خصوصی در مورد هوش مصنوعی را تعیین می کند. به طور کلی، هیچ کشوری نمی‌خواهد از پتانسیل توسعه هوش مصنوعی عقب بماند.»

جیک میمار، معاون نوآوری در ارائه‌دهنده نرم‌افزار واقعیت افزوده و واقعیت مجازی The Glimpse Group، گفت که این اقدام «با جلب توجه به چالش‌ها یا عدم وجود آن در سیاست‌های هوش مصنوعی و داده‌ها، سابقه‌ای ایجاد خواهد کرد».

به گفته میمار، گفتمان عمومی در مورد این موضوعات “گامی در جهت درست است، زیرا طیف وسیع تری از دیدگاه ها توانایی ما را برای درک کامل دامنه تاثیر بهبود می بخشد.” Peters of Inheritance Art با این موضوع موافقت کرد و گفت که این اقدام یک سابقه برای سایر کشورهای تحت پوشش GDPR خواهد بود.

برای کسانی که GDPR را اجرا نمی کنند، “چارچوبی را تعیین می کند که این کشورها باید نحوه مدیریت و استفاده OpenAI از داده های مصرف کننده را در نظر بگیرند.” Sebe از دانشگاه ترنتو معتقد است که این ممنوعیت به دلیل مغایرت بین قوانین ایتالیا در مورد مدیریت داده ها و آنچه “معمولاً در ایالات متحده مجاز است” است.

ایجاد تعادل بین نوآوری و حریم خصوصی

به نظر واضح است که بازیکنان هوش مصنوعی باید رویکرد خود را، حداقل در اتحادیه اروپا، تغییر دهند تا به کاربران خدمات ارائه دهند و در عین حال در سمت خوب قانونگذاران باقی بمانند. اما چگونه می توانند هنگام توسعه محصولات خود، نیاز به نوآوری را با حفظ حریم خصوصی و نگرانی های اخلاقی متعادل کنند؟

پاسخ به این سوال آسان نیست زیرا می تواند در توسعه محصولات هوش مصنوعی که به حقوق کاربر احترام می گذارند، معاوضه ها و چالش هایی وجود داشته باشد.

خواکین کاپوزولی، مدیر عامل پلتفرم بازی وب 3 مندکس، گفت که می‌توان با اتخاذ تدابیر قوی حفاظت از داده‌ها، انجام بررسی‌های اخلاقی کامل، و درگیر شدن در گفتگوی باز با کاربران و تنظیم‌کننده‌ها برای رسیدگی فعالانه به نگرانی‌ها، به تعادل رسید.

Rafferty از StandardDAO خاطرنشان کرد که به جای جدا کردن ChatGPT، نیاز به یک رویکرد جامع است که شامل “استانداردها و مقررات منسجم برای همه فناوری‌های هوش مصنوعی و فناوری‌های گسترده‌تر رسانه‌های اجتماعی باشد.”

ایجاد تعادل بین نوآوری و حریم خصوصی شامل “اولویت بندی شفافیت، کنترل کاربر، حفاظت قوی از داده ها و اصول حفظ حریم خصوصی از طریق طراحی” است. رافرتی گفت: اکثر شرکت ها باید “به نحوی با دولت همکاری کنند یا چارچوب های منبع باز برای تعامل و بازخورد ارائه کنند.”

سبه توجه خود را به بحث های جاری در مورد مضر بودن فناوری هوش مصنوعی جلب کرد. این شامل یک نامه سرگشاده اخیر است که خواستار یک وقفه شش ماهه در پیشرفت فناوری است تا امکان تجزیه و تحلیل درونگرایانه عمیق‌تر پیامدهای بالقوه آن فراهم شود. این نامه بیش از 20000 امضا از جمله رهبران فناوری مانند ایلان ماسک، مدیرعامل تسلا، استیو وزنیاک از بنیانگذاران اپل و کریس لارسن از بنیانگذاران ریپل را به همراه داشت.

این نامه نگرانی قابل قبولی را برای سبه ایجاد می کند، اما چنین وقفه ای شش ماهه “غیر واقعی” است. اضافه:

برای ایجاد تعادل بین نیاز به نوآوری و نگرانی‌های مربوط به حریم خصوصی، شرکت‌های هوش مصنوعی باید سیاست‌های حفظ حریم خصوصی داده‌ها و اقدامات امنیتی سخت‌گیرانه‌تری را اتخاذ کنند، از شفافیت در جمع‌آوری و استفاده از داده‌ها اطمینان حاصل کنند و رضایت کاربر برای جمع‌آوری و پردازش داده‌ها را به دست آورند.»

او گفت که پیشرفت هوش مصنوعی ظرفیت آن را برای جمع آوری و تجزیه و تحلیل مقادیر قابل توجهی از داده های شخصی افزایش داده است که نگرانی هایی را در مورد حفظ حریم خصوصی و نظارت برانگیخته است. به گفته وی، شرکت‌ها “مسلط به شفافیت در مورد جمع‌آوری داده‌ها و شیوه‌های استفاده و اتخاذ تدابیر امنیتی قوی برای محافظت از داده‌های کاربران هستند”.

سبه گفت، دیگر نگرانی‌های اخلاقی که باید در نظر گرفته شوند عبارتند از سوگیری‌های بالقوه، مسئولیت‌پذیری و شفافیت، زیرا سیستم‌های هوش مصنوعی «پتانسیل تشدید و تقویت تعصب‌های اجتماعی از قبل موجود را دارند که منجر به رفتار تبعیض‌آمیز با گروه‌های خاص می‌شود».

کاپوزولی از Mendax گفت که این شرکت معتقد است که “مسئولیت مشترک شرکت‌های هوش مصنوعی، کاربران و تنظیم‌کننده‌ها است که با هم همکاری کنند تا به نگرانی‌های اخلاقی رسیدگی کنند و چارچوبی ایجاد کنند که ضمن حمایت از حقوق فردی، نوآوری را تقویت کند.”

آخرین: وکیل Pro-XRP جان دیتون “10 برابر بیشتر به BTC، 4 برابر بیشتر به ETH”: سالن شعله

Maymar از گروه Glimpse خاطرنشان کرد که سیستم‌های هوش مصنوعی مانند ChatGPT «پتانسیل بی‌پایانی دارند و در صورت سوء استفاده می‌توانند بسیار مخرب باشند». او افزود که شرکت‌های پشت سر چنین سیستم‌هایی باید از فناوری‌های مشابه آگاه باشند و تحلیل کنند که کجا مشکل دارند و کجا موفق هستند تا بتوانند همه چیز را متعادل کنند.

به گفته میمار، شبیه سازی ها و آزمایش ها آسیب پذیری های سیستم را نشان می دهد. بنابراین، شرکت های هوش مصنوعی ظاهرا باید برای نوآوری، شفافیت و پاسخگویی تلاش کنند.

آنها باید به طور فعال خطرات و اثرات بالقوه محصولات خود را بر حریم خصوصی، اخلاقیات و جامعه شناسایی و رسیدگی کنند. با انجام این کار، آنها احتمالاً قادر خواهند بود بین کاربران و تنظیم کننده ها اعتماد ایجاد کنند و از سرنوشت ChatGPT در ایتالیا جلوگیری کنند – و به طور بالقوه بازگردند.


نویسنده: Francisco Rodrigues

اشتراک گذاری و حمایت

Picture of امیر کرمی

امیر کرمی

کارشناس تولید محتوا و علاقه مند به ارز دیجیتال و دنیای فناوری 😉

دیدگاهتان را بنویسید