دبیر کل عفو بین الملل گفت که اتحادیه اروپا این شانس را دارد که با مقررات جدید هوش مصنوعی رهبری کند و کشورهای عضو نباید قوانین آینده هوش مصنوعی را “تضعیف” کنند.
آنژ کالامار، دبیرکل عفو بینالملل، در 27 نوامبر در واکنش به عقبنشینی سه کشور عضو اتحادیه اروپا در تنظیم مدلهای هوش مصنوعی (AI) بیانیهای صادر کرد.
فرانسه، آلمان و ایتالیا به توافقی دست یافتهاند که شامل عدم پذیرش چنین مقررات سختگیرانهای در مورد مدلهای پایه هوش مصنوعی، جزء کلیدی قانون آینده اتحادیه اروپا برای هوش مصنوعی است.
این امر پس از آن صورت میگیرد که اتحادیه اروپا طومارهای زیادی از بازیگران صنعت فناوری دریافت کرد که از قانونگذاران خواسته بودند تا صنعت نوپا را بیش از حد تنظیم نکنند.
اما کالامار گفت که منطقه این فرصت را دارد تا با مقررات قوی هوش مصنوعی «رهبری بینالمللی» را نشان دهد و کشورهای عضو «نباید قانون هوش مصنوعی را با تعظیم به استدلالهای صنعت فناوری مبنی بر اینکه پذیرش قانون هوش مصنوعی منجر به مشکلات سختتر میشود، تضعیف کنند. آئین نامه.” این مانع از نوآوری خواهد شد.»
فراموش نکنیم که «قانون در مقابل نوآوری» دوگانگی کاذبی است که شرکتهای فناوری سالها برای اجتناب از پاسخگویی معنادار و مقررات الزامآور آن را میفروشند.»
او گفت که این لفاظیهای صنعت فناوری بر «تمرکز قدرت» توسط گروه کوچکی از شرکتهای فناوری که میخواهند مسئول «کتاب قوانین هوش مصنوعی» باشند، برجسته میشود.
مرتبط با: شرکت نظارت و تشخیص چهره آمریکا Clearview AI برنده چالش GDPR در دادگاه بریتانیا شد.
عفو بینالملل عضو ائتلافی از سازمانهای جامعه مدنی به رهبری شبکه حقوق دیجیتال اروپایی (EDRI) است که از قوانین هوش مصنوعی اتحادیه اروپا حمایت میکند که در آن حفاظت از حقوق بشر در خط مقدم قرار دارد.
کالامارد گفت نقض حقوق بشر ناشی از هوش مصنوعی “به خوبی مستند شده” است و “دولت ها از سیستم های هوش مصنوعی غیرقانونی برای ارزیابی درخواست های رفاهی، نظارت بر فضاهای عمومی یا تعیین اینکه آیا شخصی ممکن است مرتکب جرم شود استفاده می کنند.”
ضروری است که فرانسه، آلمان و ایتالیا از به تعویق انداختن روند مذاکرات خودداری کنند و قانونگذاران اتحادیه اروپا بر اطمینان از گنجاندن حمایت های مهم حقوق بشر در قانون قبل از انقضای مأموریت فعلی اتحادیه اروپا در سال 2024 تمرکز کنند.
اخیراً، فرانسه، آلمان و ایتالیا نیز بخشی از مجموعه دستورالعملهای جدیدی بودند که توسط 15 کشور و شرکتهای فناوری بزرگ، از جمله OpenAI و Anthropic، ایجاد شدهاند که اقدامات امنیت سایبری را برای توسعهدهندگان هوش مصنوعی هنگام طراحی، توسعه، راهاندازی و نظارت بر مدلهای هوش مصنوعی توصیه میکنند.
مجله: AI Eye: با خوشرفتاری با ChatGPT، جنجالهای جعلی پورنوی کودکان با هوش مصنوعی، بررسیهای هوش مصنوعی آمازون، نتایج بهتری دریافت کنید.
نویسنده: Savannah Fortis