مدیر عامل تتر هشدار هوش مصنوعی ترسناکی صادر کرد


پائولو آردوینو، مدیرعامل تتر اخیراً گفت: x شبکه رسانه های اجتماعی هشدار در مورد مشکلات مدل های زبان بزرگ مرکزی (LLM).

آردوینو به گزارش‌هایی اشاره کرد مبنی بر اینکه شرکت پیشرو هوش مصنوعی OpenAI در اوایل سال 2023 دچار یک نقض امنیتی بزرگ شد و این حادثه را “وحشتناک” خواند.

بر اساس گزارش اخیر، OpenAI تصمیم گرفت این نقض را فاش نکند، حتی اگر برخی از اطلاعات حساس افشا شده بود. گزارش از نیویورک تایمز.

مرتبط با

لئوپولد اشنبرنر، محقق سابق OpenAI از این شرکت به دلیل اقدامات امنیتی ناکافی که می تواند آن را در برابر عوامل مخرب مرتبط با دولت های خارجی آسیب پذیر کند، انتقاد کرد. اشنبرنر ادعا کرد که رهبر هوش مصنوعی به جای سیاست، قطع رابطه با او را انتخاب کرده است. با این حال، این شرکت علت اخراج این محقق را رد کرد و افزود که این رخنه حتی قبل از استخدام او توسط OpenAI فاش شده است.

با این حال، اگرچه این شرکت ادعا می کند که فناوری فعلی آن هیچ خطری برای امنیت ملی ندارد، اما نگرانی هایی در مورد افتادن اسرار OpenAI به دست چین وجود دارد.

مرتبط با

گذشته از حوادث امنیتی، مدل های متمرکز هوش مصنوعی نیز به دلیل استفاده غیراخلاقی از داده ها و سانسور مورد انتقاد قرار گرفته اند. رئیس Tether معتقد است که باز کردن قدرت مدل‌های هوش مصنوعی بومی «تنها راه» برای رفع نگرانی‌های مربوط به حریم خصوصی و همچنین اطمینان از انعطاف‌پذیری و استقلال است.

آردوینو در پست خود در شبکه اجتماعی X گفت: مدل‌های هوش مصنوعی قابل اجرا محلی تنها راه برای محافظت از حریم خصوصی افراد و اطمینان از انعطاف‌پذیری/استقلال هستند.

او افزود که تلفن‌های هوشمند و لپ‌تاپ‌های مدرن به اندازه‌ای قدرتمند هستند که می‌توانند LLM‌های رایج را تنظیم کنند.


نویسنده: Alex Dovbnya

اشتراک گذاری و حمایت

Picture of امیر کرمی

امیر کرمی

کارشناس تولید محتوا و علاقه مند به ارز دیجیتال و دنیای فناوری 😉

دیدگاهتان را بنویسید