AI Eye: آیا موضوع آدم خواری محتوای هوش مصنوعی باعث از بین رفتن داده های هوش مصنوعی می شود؟


آیا به این دلیل است که هوش مصنوعی همیشه به انسان نیاز داشته است، زیرا چت ربات های مذهبی مرگ را برای کافران تبلیغ می کنند و هدف واقعی Threads تولید داده های آموزشی هوش مصنوعی است؟

ChatGPT آدمخوار می خورد

تبلیغات ChatGPT در حال کاهش است، به طوری که جستجوهای ChatGPT گوگل از اوج آوریل خود 40٪ کاهش یافته است و ترافیک وب به وب سایت ChatGPT OpenAI در ماه گذشته تقریباً 10٪ کاهش یافته است.

این تنها قابل انتظار است، اما کاربران GPT-4 همچنین گزارش می دهند که این مدل بسیار احمقانه (اما سریعتر) از مدل قبلی خود به نظر می رسد.

یک نظریه این است که OpenAI آن را به چندین مدل کوچکتر تقسیم می کند که در مناطق خاصی آموزش دیده اند، که می توانند با هم عمل کنند، اما دقیقاً در یک سطح نیستند.

توییت هوش مصنوعی

اما یک احتمال جذاب تر نیز ممکن است نقش داشته باشد: آدم خواری با هوش مصنوعی.

وب اکنون مملو از متن و تصاویر تولید شده توسط هوش مصنوعی است و این داده های مصنوعی به عنوان داده برای آموزش هوش مصنوعی خراشیده می شود و باعث ایجاد یک حلقه بازخورد منفی می شود. هر چه یک مدل داده های هوش مصنوعی بیشتری دریافت کند، خروجی از نظر ثبات و کیفیت بدتر خواهد بود. این کمی شبیه اتفاقی است که وقتی از یک فتوکپی کپی می کنید و تصویر به تدریج بدتر می شود، اتفاق می افتد.

در حالی که داده‌های آموزشی رسمی برای GPT-4 در سپتامبر 2021 منقضی می‌شود، واضح است که خیلی بیشتر از آن می‌داند و OpenAI اخیراً پلاگین مرور وب خود را تعطیل کرده است.

مقاله اخیر رایس و دانشمندان دانشگاه استنفورد به یک مخفف زیبا برای این مشکل دست یافته است: اختلال اتوفاژی مدل یا MAD.

آنها گفتند: “نتیجه گیری اولیه ما در همه سناریوها این است که بدون داده های واقعی تازه کافی در هر نسل از چرخه اتوفاگ، کیفیت (دقت) یا تنوع (یادآوری) الگوهای تولیدی آینده محکوم به کاهش تدریجی است.”

اساساً، مدل‌ها شروع به از دست دادن داده‌های منحصربه‌فردتر، اما کمتر ارائه‌شده، می‌کنند و خروجی خود را روی داده‌های کم‌تنوع در یک فرآیند مداوم تثبیت می‌کنند. خبر خوب این است که اگر بتوانیم راهی برای شناسایی و اولویت بندی محتوای انسانی برای مدل ها پیدا کنیم، هوش مصنوعی اکنون دلیلی برای نگه داشتن انسان ها در جریان دارد. این یکی از برنامه‌های رئیس OpenAI سام آلتمانز با پروژه بلاک چین ورلد کوین است.

تام گلدشتاین

آیا Threads فقط یک رهبر ضرر برای آموزش مدل های هوش مصنوعی است؟

شبیه سازی توییتر Threads کمی حرکت عجیبی است زیرا مارک زاکربرگ کاربران را در اینستاگرام آدم خواری می کند. این پلتفرم اشتراک‌گذاری عکس سالانه 50 میلیارد دلار درآمد دارد، اما حدود یک دهم آن را از Threads انجام می‌دهد، حتی در سناریوی غیرواقعی چون 100 درصد سهم بازار را از توییتر می‌گیرد. الکس والایتیس از Big Brain Daily پیش‌بینی می‌کند که ظرف 12 ماه آینده یا بسته می‌شود یا دوباره به اینستاگرام معرفی می‌شود، با این استدلال که دلیل اصلی راه‌اندازی آن در حال حاضر داشتن محتوای متنی بیشتر برای آموزش مدل‌های هوش مصنوعی متاس است.

ChatGPT بر روی حجم زیادی از داده ها از توییتر آموزش داده شده بود، اما ایلان ماسک برای جلوگیری از وقوع این اتفاق در آینده (هزینه برای دسترسی به API، محدود کردن نرخ و غیره) اقدامات نامطلوب مختلفی انجام داد.

نرم افزار تشخیص تصویر متا، SEER، بر روی یک میلیارد عکس منتشر شده در اینستاگرام آموزش دیده است، بنابراین زاک خوش فرم است. کاربران این موضوع را در سیاست حفظ حریم خصوصی خود تصدیق کردند و بیش از چند نفر اشاره کردند که برنامه Threads داده‌ها را در مورد هر چیزی که ممکن است، از داده‌های سلامت گرفته تا اعتقادات مذهبی و نژاد جمع‌آوری می‌کند. این داده ها به ناچار برای آموزش مدل های هوش مصنوعی مانند Facebook LLaMA (مدل متا AI زبان بزرگ) استفاده خواهند شد.
در همین حال، ماسک یک رقیب OpenAI به نام xAI راه اندازی کرده است که داده های توییتر را برای LLM خودش استخراج می کند.

علیه اجتماعی
مجوزهای مختلف مورد نیاز برنامه های اجتماعی (CounterSocial)

چت ربات های مذهبی بنیادگرا هستند

چه کسی حدس می زد که آموزش هوش مصنوعی در متون مذهبی و صحبت با صدای خدا ایده وحشتناکی باشد؟ در هند، ربات‌های چت هندو که خود را کریشنا نشان می‌دهند، دائماً به کاربران توصیه می‌کنند که کشتن مردم در صورتی که دارما یا وظیفه شماست اشکالی ندارد.

حداقل پنج چت بات آموزش دیده بر روی باگاواد گیتا، یک کتاب مقدس 700 آیه ای، در چند ماه گذشته ظاهر شده اند، اما علیرغم نگرانی های اخلاقی، دولت هند برنامه ای برای تنظیم این فناوری ندارد.

لوبنا یوسف وکیل مستقر در بمبئی و یکی از نویسندگان کتاب هوش مصنوعی گفت: «فقدان ارتباطات، اطلاعات غلط متنی مذهبی. یک متن ارزش فلسفی بیش از حدی برای آنچه که آنها می خواهند بیان کنند قائل است، و یک ربات چه کاری انجام می دهد؟ این یک پاسخ واقعی به شما می دهد و خطر اینجاست.

همچنین بخوانید
امکانات

مشوق‌های همسو: تسریع پذیرش رمزنگاری منفعل

امکانات

راه پذیرش بیت کوین با اعداد صحیح هموار شده است

خوشبینان هوش مصنوعی در مقابل بدبینان هوش مصنوعی

Eliezer Yudkowsky، نظریه‌پرداز تصمیم‌گیری، فاجعه‌ای پیشرو در جهان با هوش مصنوعی، سخنرانی TED را منتشر کرد و هشدار داد که هوش مصنوعی فوق‌هوشمند همه ما را خواهد کشت. او مطمئن نیست که چگونه و چرا، زیرا او معتقد است که یک AGI بسیار باهوش‌تر از ما است که ما حتی نمی‌توانیم بفهمیم چگونه یا چرا ما را مانند یک دهقان قرون وسطایی می‌کشد که تلاش می‌کند بفهمد کولر چگونه کار می‌کند. او می تواند ما را به عنوان یک عارضه جانبی از تعقیب هدف دیگری بکشد، یا صرفاً به این دلیل که نمی خواهد ما ابرهوش های دیگری را برای رقابت با او بسازیم.”

او اشاره می کند که هیچ کس نمی داند سیستم های هوش مصنوعی مدرن چگونه کاری را که انجام می دهند انجام می دهند. آنها ماتریس های بزرگ و نامفهومی از اعداد ممیز شناور هستند. او انتظار انبوهی از روبات‌های راه‌رو با چشم‌های قرمز درخشان را ندارد، اما معتقد است که موجودی باهوش‌تر و بی‌ملاحظه‌تر، استراتژی‌ها و فناوری‌هایی را پیدا می‌کند که می‌توانند ما را سریع و قابل اعتماد بکشند و سپس ما را بکشند. تنها چیزی که می تواند از وقوع این سناریو جلوگیری کند III است.

مارک آندرسن از A16z در مقاله خود چرا هوش مصنوعی جهان را نجات خواهد داد، استدلال می کند که چنین موضعی غیرعلمی است: یک فرضیه قابل آزمایش چیست؟ چه چیزی می تواند فرضیه را اشتباه کند؟ از کجا بفهمیم وارد منطقه خطرناکی شده ایم؟ این سوالات اغلب بی پاسخ می مانند، با این تفاوت که شما نمی توانید ثابت کنید که این اتفاق نخواهد افتاد!

بیل گیتس، رئیس مایکروسافت، مقاله خود را با عنوان خطرات هوش مصنوعی واقعی اما قابل کنترل است، با این استدلال که از ماشین‌ها گرفته تا اینترنت، «انسان‌ها از لحظات دگرگون‌کننده دیگری جان سالم به در برده‌اند و با وجود تلاطم‌های زیاد، وضعیت بهتری دارند» منتشر کرد. پایان.”

این دگرگون‌کننده‌ترین نوآوری است که هر یک از ما در طول عمر خود شاهد آن خواهیم بود و یک بحث عمومی سالم به دانستن همه در مورد فناوری، مزایا و خطرات آن بستگی دارد. خطرات به این دلیل است که ما قبلاً این کار را انجام داده ایم.”

جرمی هوارد، دانشمند داده، مقاله خود را منتشر کرده است که واکنش مبتنی بر ترس به هوش مصنوعی را با دوران پیش از روشنگری که بشر در حال آزمایش بود، مقایسه کرده است، و استدلال می‌کند که هرگونه تلاش برای غیرقانونی کردن این فناوری یا محدود کردن آن به چند مدل اصلی هوش مصنوعی فاجعه‌بار خواهد بود. محدود کردن آموزش و قدرت به نخبگان

همچنین بخوانید
امکانات

بانکداری بدون بانک؟ چگونه به یک خارجی در کنیا درباره بیت کوین آموزش دادم

امکانات

نیروی کار کریپتو در طول همه گیری چگونه تغییر کرده است؟

«سپس یک ایده جدید مطرح شد. اگر به طور کلی به خیر عمومی جامعه تکیه کنیم چه؟ چه می شد اگر همه به آموزش دسترسی داشتند؟ رای دادن؟ به تکنولوژی؟ این عصر روشنگری بود.»

پیشنهاد متقابل او تشویق توسعه منبع باز هوش مصنوعی است و معتقد است که بیشتر مردم از این فناوری برای همیشه استفاده خواهند کرد.

“بیشتر مردم از این مدل ها برای ایجاد و نگهداری آنها استفاده می کنند. چقدر خوب است که ایمن تر از داشتن تنوع و تخصص عظیم جامعه بشری باشد که تمام تلاش خود را برای شناسایی و پاسخ به تهدیدات و قدرت کامل هوش مصنوعی در پشت آنها انجام می دهد. ؟”

مفسر کد OpenAIs

مفسر کد جدید GPT-4 یک ارتقاء فوق‌العاده جدید است که به هوش مصنوعی اجازه می‌دهد کد را در صورت درخواست ایجاد و اجرا کند. بنابراین می تواند برای هر چیزی که تصور کنید کد ایجاد و اجرا کند. کاربران موارد استفاده مختلفی از جمله آپلود گزارش‌های شرکت و ایجاد نمودارهای مفید از داده‌های مهم توسط هوش مصنوعی، تبدیل فایل‌ها از یک فرمت به فرمت دیگر، ایجاد جلوه‌های ویدیویی و تبدیل تصاویر ثابت به ویدیو را پیدا می‌کنند. یک کاربر یک فایل اکسل از هر مکان فانوس دریایی در ایالات متحده آپلود کرد و از GPT-4 برای ایجاد یک نقشه متحرک از مکان ها استفاده کرد.

اخبار کاملاً کشنده و غیر پرکننده هوش مصنوعی

تحقیقات دانشگاه مونتانا نشان داد که هوش مصنوعی در آزمون خلاقیت استاندارد شده در 1 درصد برتر قرار دارد. سرویس آزمون اسکولاستیک پاسخ های GPT-4s را به بالاترین نمرات آزمون در خلاقیت، روانی (قابلیت تولید ایده های زیاد) و اصالت داد.

کمدین سارا سیلورمن و نویسندگان کریستوفر گلدن و ریچارد کادری از OpenAI و Meta به دلیل نقض حق نسخه‌برداری به دلیل آموزش مدل‌های هوش مصنوعی مربوطه خود در کتاب‌های سه‌گانه شکایت کردند.

AI Copilot مایکروسافت برای ویندوز در نهایت عالی خواهد بود، اما Windows Central دید که پیش‌نمایش اینسایدر واقعاً فقط Bing Chat بود که از طریق مرورگر Edge اجرا می‌شد و در شرف روشن کردن بلوتوث بود.

انسان گرارقیب ChatGPT، Claude 2، اکنون به صورت رایگان در بریتانیا و ایالات متحده در دسترس است و پنجره محتوا می تواند محتوای 75000 کلمه تا حداکثر 3000 کلمه ChatGPT را مدیریت کند. این باعث می شود که برای خلاصه کردن قطعات طولانی متن عالی باشد و در نوشتن داستان بد نباشد.

ویدیوی هفته

شبکه خبری ماهواره ای هند OTV News مجری اخبار هوش مصنوعی خود به نام لیزا را معرفی کرده است که اخبار را برای شبکه و پلتفرم های دیجیتال خود به چندین زبان از جمله انگلیسی و Odia در روز چندین بار ارائه می کند. Jagi Mangat Panda، مدیر کل OTV گفت: “مرکزهای جدید هوش مصنوعی ترکیبات دیجیتالی هستند که از تصاویر میزبان انسانی که اخبار را با استفاده از صداهای ترکیب شده می خواند ایجاد شده اند.”




نویسنده: Andrew Fenton

اشتراک گذاری و حمایت

امیر کرمی

امیر کرمی

کارشناس تولید محتوا و علاقه مند به ارز دیجیتال و دنیای فناوری 😉

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *