آیا به این دلیل است که هوش مصنوعی همیشه به انسان نیاز داشته است، زیرا چت ربات های مذهبی مرگ را برای کافران تبلیغ می کنند و هدف واقعی Threads تولید داده های آموزشی هوش مصنوعی است؟
ChatGPT آدمخوار می خورد
تبلیغات ChatGPT در حال کاهش است، به طوری که جستجوهای ChatGPT گوگل از اوج آوریل خود 40٪ کاهش یافته است و ترافیک وب به وب سایت ChatGPT OpenAI در ماه گذشته تقریباً 10٪ کاهش یافته است.
این تنها قابل انتظار است، اما کاربران GPT-4 همچنین گزارش می دهند که این مدل بسیار احمقانه (اما سریعتر) از مدل قبلی خود به نظر می رسد.
یک نظریه این است که OpenAI آن را به چندین مدل کوچکتر تقسیم می کند که در مناطق خاصی آموزش دیده اند، که می توانند با هم عمل کنند، اما دقیقاً در یک سطح نیستند.

اما یک احتمال جذاب تر نیز ممکن است نقش داشته باشد: آدم خواری با هوش مصنوعی.
وب اکنون مملو از متن و تصاویر تولید شده توسط هوش مصنوعی است و این داده های مصنوعی به عنوان داده برای آموزش هوش مصنوعی خراشیده می شود و باعث ایجاد یک حلقه بازخورد منفی می شود. هر چه یک مدل داده های هوش مصنوعی بیشتری دریافت کند، خروجی از نظر ثبات و کیفیت بدتر خواهد بود. این کمی شبیه اتفاقی است که وقتی از یک فتوکپی کپی می کنید و تصویر به تدریج بدتر می شود، اتفاق می افتد.
در حالی که دادههای آموزشی رسمی برای GPT-4 در سپتامبر 2021 منقضی میشود، واضح است که خیلی بیشتر از آن میداند و OpenAI اخیراً پلاگین مرور وب خود را تعطیل کرده است.
مقاله اخیر رایس و دانشمندان دانشگاه استنفورد به یک مخفف زیبا برای این مشکل دست یافته است: اختلال اتوفاژی مدل یا MAD.
آنها گفتند: “نتیجه گیری اولیه ما در همه سناریوها این است که بدون داده های واقعی تازه کافی در هر نسل از چرخه اتوفاگ، کیفیت (دقت) یا تنوع (یادآوری) الگوهای تولیدی آینده محکوم به کاهش تدریجی است.”
اساساً، مدلها شروع به از دست دادن دادههای منحصربهفردتر، اما کمتر ارائهشده، میکنند و خروجی خود را روی دادههای کمتنوع در یک فرآیند مداوم تثبیت میکنند. خبر خوب این است که اگر بتوانیم راهی برای شناسایی و اولویت بندی محتوای انسانی برای مدل ها پیدا کنیم، هوش مصنوعی اکنون دلیلی برای نگه داشتن انسان ها در جریان دارد. این یکی از برنامههای رئیس OpenAI سام آلتمانز با پروژه بلاک چین ورلد کوین است.

آیا Threads فقط یک رهبر ضرر برای آموزش مدل های هوش مصنوعی است؟
شبیه سازی توییتر Threads کمی حرکت عجیبی است زیرا مارک زاکربرگ کاربران را در اینستاگرام آدم خواری می کند. این پلتفرم اشتراکگذاری عکس سالانه 50 میلیارد دلار درآمد دارد، اما حدود یک دهم آن را از Threads انجام میدهد، حتی در سناریوی غیرواقعی چون 100 درصد سهم بازار را از توییتر میگیرد. الکس والایتیس از Big Brain Daily پیشبینی میکند که ظرف 12 ماه آینده یا بسته میشود یا دوباره به اینستاگرام معرفی میشود، با این استدلال که دلیل اصلی راهاندازی آن در حال حاضر داشتن محتوای متنی بیشتر برای آموزش مدلهای هوش مصنوعی متاس است.
ChatGPT بر روی حجم زیادی از داده ها از توییتر آموزش داده شده بود، اما ایلان ماسک برای جلوگیری از وقوع این اتفاق در آینده (هزینه برای دسترسی به API، محدود کردن نرخ و غیره) اقدامات نامطلوب مختلفی انجام داد.
نرم افزار تشخیص تصویر متا، SEER، بر روی یک میلیارد عکس منتشر شده در اینستاگرام آموزش دیده است، بنابراین زاک خوش فرم است. کاربران این موضوع را در سیاست حفظ حریم خصوصی خود تصدیق کردند و بیش از چند نفر اشاره کردند که برنامه Threads دادهها را در مورد هر چیزی که ممکن است، از دادههای سلامت گرفته تا اعتقادات مذهبی و نژاد جمعآوری میکند. این داده ها به ناچار برای آموزش مدل های هوش مصنوعی مانند Facebook LLaMA (مدل متا AI زبان بزرگ) استفاده خواهند شد.
در همین حال، ماسک یک رقیب OpenAI به نام xAI راه اندازی کرده است که داده های توییتر را برای LLM خودش استخراج می کند.

چت ربات های مذهبی بنیادگرا هستند
چه کسی حدس می زد که آموزش هوش مصنوعی در متون مذهبی و صحبت با صدای خدا ایده وحشتناکی باشد؟ در هند، رباتهای چت هندو که خود را کریشنا نشان میدهند، دائماً به کاربران توصیه میکنند که کشتن مردم در صورتی که دارما یا وظیفه شماست اشکالی ندارد.
حداقل پنج چت بات آموزش دیده بر روی باگاواد گیتا، یک کتاب مقدس 700 آیه ای، در چند ماه گذشته ظاهر شده اند، اما علیرغم نگرانی های اخلاقی، دولت هند برنامه ای برای تنظیم این فناوری ندارد.
لوبنا یوسف وکیل مستقر در بمبئی و یکی از نویسندگان کتاب هوش مصنوعی گفت: «فقدان ارتباطات، اطلاعات غلط متنی مذهبی. یک متن ارزش فلسفی بیش از حدی برای آنچه که آنها می خواهند بیان کنند قائل است، و یک ربات چه کاری انجام می دهد؟ این یک پاسخ واقعی به شما می دهد و خطر اینجاست.
مشوقهای همسو: تسریع پذیرش رمزنگاری منفعل
راه پذیرش بیت کوین با اعداد صحیح هموار شده است
خوشبینان هوش مصنوعی در مقابل بدبینان هوش مصنوعی
Eliezer Yudkowsky، نظریهپرداز تصمیمگیری، فاجعهای پیشرو در جهان با هوش مصنوعی، سخنرانی TED را منتشر کرد و هشدار داد که هوش مصنوعی فوقهوشمند همه ما را خواهد کشت. او مطمئن نیست که چگونه و چرا، زیرا او معتقد است که یک AGI بسیار باهوشتر از ما است که ما حتی نمیتوانیم بفهمیم چگونه یا چرا ما را مانند یک دهقان قرون وسطایی میکشد که تلاش میکند بفهمد کولر چگونه کار میکند. او می تواند ما را به عنوان یک عارضه جانبی از تعقیب هدف دیگری بکشد، یا صرفاً به این دلیل که نمی خواهد ما ابرهوش های دیگری را برای رقابت با او بسازیم.”
او اشاره می کند که هیچ کس نمی داند سیستم های هوش مصنوعی مدرن چگونه کاری را که انجام می دهند انجام می دهند. آنها ماتریس های بزرگ و نامفهومی از اعداد ممیز شناور هستند. او انتظار انبوهی از روباتهای راهرو با چشمهای قرمز درخشان را ندارد، اما معتقد است که موجودی باهوشتر و بیملاحظهتر، استراتژیها و فناوریهایی را پیدا میکند که میتوانند ما را سریع و قابل اعتماد بکشند و سپس ما را بکشند. تنها چیزی که می تواند از وقوع این سناریو جلوگیری کند III است.
مارک آندرسن از A16z در مقاله خود چرا هوش مصنوعی جهان را نجات خواهد داد، استدلال می کند که چنین موضعی غیرعلمی است: یک فرضیه قابل آزمایش چیست؟ چه چیزی می تواند فرضیه را اشتباه کند؟ از کجا بفهمیم وارد منطقه خطرناکی شده ایم؟ این سوالات اغلب بی پاسخ می مانند، با این تفاوت که شما نمی توانید ثابت کنید که این اتفاق نخواهد افتاد!
بیل گیتس، رئیس مایکروسافت، مقاله خود را با عنوان خطرات هوش مصنوعی واقعی اما قابل کنترل است، با این استدلال که از ماشینها گرفته تا اینترنت، «انسانها از لحظات دگرگونکننده دیگری جان سالم به در بردهاند و با وجود تلاطمهای زیاد، وضعیت بهتری دارند» منتشر کرد. پایان.”
این دگرگونکنندهترین نوآوری است که هر یک از ما در طول عمر خود شاهد آن خواهیم بود و یک بحث عمومی سالم به دانستن همه در مورد فناوری، مزایا و خطرات آن بستگی دارد. خطرات به این دلیل است که ما قبلاً این کار را انجام داده ایم.”
جرمی هوارد، دانشمند داده، مقاله خود را منتشر کرده است که واکنش مبتنی بر ترس به هوش مصنوعی را با دوران پیش از روشنگری که بشر در حال آزمایش بود، مقایسه کرده است، و استدلال میکند که هرگونه تلاش برای غیرقانونی کردن این فناوری یا محدود کردن آن به چند مدل اصلی هوش مصنوعی فاجعهبار خواهد بود. محدود کردن آموزش و قدرت به نخبگان
بانکداری بدون بانک؟ چگونه به یک خارجی در کنیا درباره بیت کوین آموزش دادم
نیروی کار کریپتو در طول همه گیری چگونه تغییر کرده است؟
«سپس یک ایده جدید مطرح شد. اگر به طور کلی به خیر عمومی جامعه تکیه کنیم چه؟ چه می شد اگر همه به آموزش دسترسی داشتند؟ رای دادن؟ به تکنولوژی؟ این عصر روشنگری بود.»
پیشنهاد متقابل او تشویق توسعه منبع باز هوش مصنوعی است و معتقد است که بیشتر مردم از این فناوری برای همیشه استفاده خواهند کرد.
“بیشتر مردم از این مدل ها برای ایجاد و نگهداری آنها استفاده می کنند. چقدر خوب است که ایمن تر از داشتن تنوع و تخصص عظیم جامعه بشری باشد که تمام تلاش خود را برای شناسایی و پاسخ به تهدیدات و قدرت کامل هوش مصنوعی در پشت آنها انجام می دهد. ؟”
مفسر کد OpenAIs
مفسر کد جدید GPT-4 یک ارتقاء فوقالعاده جدید است که به هوش مصنوعی اجازه میدهد کد را در صورت درخواست ایجاد و اجرا کند. بنابراین می تواند برای هر چیزی که تصور کنید کد ایجاد و اجرا کند. کاربران موارد استفاده مختلفی از جمله آپلود گزارشهای شرکت و ایجاد نمودارهای مفید از دادههای مهم توسط هوش مصنوعی، تبدیل فایلها از یک فرمت به فرمت دیگر، ایجاد جلوههای ویدیویی و تبدیل تصاویر ثابت به ویدیو را پیدا میکنند. یک کاربر یک فایل اکسل از هر مکان فانوس دریایی در ایالات متحده آپلود کرد و از GPT-4 برای ایجاد یک نقشه متحرک از مکان ها استفاده کرد.
اخبار کاملاً کشنده و غیر پرکننده هوش مصنوعی
تحقیقات دانشگاه مونتانا نشان داد که هوش مصنوعی در آزمون خلاقیت استاندارد شده در 1 درصد برتر قرار دارد. سرویس آزمون اسکولاستیک پاسخ های GPT-4s را به بالاترین نمرات آزمون در خلاقیت، روانی (قابلیت تولید ایده های زیاد) و اصالت داد.
کمدین سارا سیلورمن و نویسندگان کریستوفر گلدن و ریچارد کادری از OpenAI و Meta به دلیل نقض حق نسخهبرداری به دلیل آموزش مدلهای هوش مصنوعی مربوطه خود در کتابهای سهگانه شکایت کردند.
AI Copilot مایکروسافت برای ویندوز در نهایت عالی خواهد بود، اما Windows Central دید که پیشنمایش اینسایدر واقعاً فقط Bing Chat بود که از طریق مرورگر Edge اجرا میشد و در شرف روشن کردن بلوتوث بود.
انسان گرارقیب ChatGPT، Claude 2، اکنون به صورت رایگان در بریتانیا و ایالات متحده در دسترس است و پنجره محتوا می تواند محتوای 75000 کلمه تا حداکثر 3000 کلمه ChatGPT را مدیریت کند. این باعث می شود که برای خلاصه کردن قطعات طولانی متن عالی باشد و در نوشتن داستان بد نباشد.
ویدیوی هفته
شبکه خبری ماهواره ای هند OTV News مجری اخبار هوش مصنوعی خود به نام لیزا را معرفی کرده است که اخبار را برای شبکه و پلتفرم های دیجیتال خود به چندین زبان از جمله انگلیسی و Odia در روز چندین بار ارائه می کند. Jagi Mangat Panda، مدیر کل OTV گفت: “مرکزهای جدید هوش مصنوعی ترکیبات دیجیتالی هستند که از تصاویر میزبان انسانی که اخبار را با استفاده از صداهای ترکیب شده می خواند ایجاد شده اند.”

نویسنده: Andrew Fenton