کارشناسان معتقدند که سیستمهای غیرمتمرکز میتوانند به حفظ یکپارچگی و عینیت دادههای وارد شده به سیستمهای هوش مصنوعی کمک کنند، اما هنوز محدودیتهای بسیار واضحی وجود دارد.
پروژه هایی که ریشه در هوش مصنوعی (AI) دارند به سرعت به بخشی جدایی ناپذیر از پارادایم فناوری مدرن تبدیل می شوند و به فرآیندهای تصمیم گیری در صنایع مختلف از مالی تا مراقبت های بهداشتی کمک می کنند. با این حال، با وجود پیشرفت قابل توجه، سیستم های هوش مصنوعی بدون نقص نیستند. یکی از بحرانیترین مشکلاتی که هوش مصنوعی امروز با آن مواجه است، سوگیری دادهها است که به وجود خطاهای سیستمی در مجموعهای از اطلاعات اشاره دارد که منجر به نتایج ناهموار هنگام آموزش مدلهای یادگیری ماشین میشود.
از آنجایی که سیستم های هوش مصنوعی به شدت به داده ها متکی هستند. کیفیت داده های ورودی بسیار مهم است، زیرا هر گونه اطلاعات نادرست می تواند منجر به سوگیری در سیستم شود. این امر می تواند تبعیض و نابرابری را در جامعه تداوم بخشد. بنابراین، اطمینان از یکپارچگی و عینی بودن داده ها ضروری است.
به عنوان مثال، یک مقاله اخیر به بررسی این موضوع می پردازد که چگونه تصاویر تولید شده توسط هوش مصنوعی ایجاد شده از مجموعه داده هایی که توسط منابعی که به ویژه تحت تأثیر آمریکا قرار دارند، می توانند بافت فرهنگی حالات چهره را نادرست نشان دهند و یکسان کنند. او چندین نمونه از سربازان یا جنگجویان دوره های مختلف تاریخی را ذکر می کند که همگی با همان لبخند آمریکایی هستند.

علاوه بر این، تعصب فراگیر نه تنها نمی تواند تنوع و ظرایف بیان انسانی را به تصویر بکشد، بلکه خطر پاک کردن تاریخچه ها و معانی فرهنگی حیاتی را نیز به دنبال دارد و به طور بالقوه بر سلامت روان جهانی، رفاه و غنای تجربیات انسانی تأثیر می گذارد. برای کاهش چنین سوگیری، ترکیب مجموعه داده های متنوع و نماینده در فرآیندهای آموزشی هوش مصنوعی بسیار مهم است.
عوامل مختلفی به داده های جانبدارانه در سیستم های هوش مصنوعی کمک می کنند. اولاً، ممکن است فرآیند جمعآوری ناقص باشد زیرا نمونهها نماینده جامعه هدف نیستند. این می تواند منجر به حضور کم یا بیش از حد گروه های خاص شود. دوم، سوگیری های تاریخی می توانند به داده های آموزشی نفوذ کنند و تعصبات اجتماعی موجود را تداوم بخشند. برای مثال، سیستمهای هوش مصنوعی آموزشدیده با دادههای تاریخی مغرضانه ممکن است به تقویت کلیشههای جنسیتی یا نژادی ادامه دهند.
در نهایت، سوگیری های انسانی ممکن است به طور ناخواسته در طول فرآیند برچسب گذاری داده ها ایجاد شود، زیرا برچسب ها ممکن است سوگیری های ناخودآگاه را در خود جای دهند. انتخاب ویژگیها یا متغیرهای مورد استفاده در مدلهای هوش مصنوعی میتواند منجر به نتایج مغرضانه شود، زیرا برخی از ویژگیها ممکن است بیشتر با گروههای خاصی مرتبط باشند و در نتیجه رفتار ناعادلانهای داشته باشند. برای کاهش این مشکلات، محققان و دست اندرکاران باید از منابع بالقوه عینیت تحریف شده آگاه باشند و فعالانه برای حذف آنها تلاش کنند.
آیا بلاک چین می تواند هوش مصنوعی خنثی را فعال کند؟
در حالی که فناوری بلاک چین می تواند در جنبه های خاصی از خنثی نگه داشتن سیستم های هوش مصنوعی کمک کند، اما به هیچ وجه نوشدارویی برای حذف کامل سوگیری نیست. سیستمهای هوش مصنوعی مانند مدلهای یادگیری ماشینی میتوانند روندهای تبعیضآمیز خاصی را بر اساس دادههایی که روی آنها آموزش دیدهاند ایجاد کنند. علاوه بر این، اگر داده های آموزشی حاوی از پیش تنظیم های مختلف باشد، سیستم احتمالا آنها را یاد می گیرد و در خروجی های خود بازتولید می کند.
با این حال، فناوری بلاک چین می تواند به روش های منحصر به فرد خود در رسیدگی به تعصب هوش مصنوعی کمک کند. به عنوان مثال، می تواند به اطمینان از منبع داده و شفافیت کمک کند. سیستم های غیرمتمرکز می توانند با ردیابی منبع داده های مورد استفاده برای آموزش سیستم های هوش مصنوعی، شفافیت را در فرآیند جمع آوری و جمع آوری اطلاعات فراهم کنند. این می تواند به ذینفعان کمک کند تا منابع بالقوه سوگیری را شناسایی و به آنها رسیدگی کنند.
نهایی: چرا باید به انجمن بازی های بلاک چین بپیوندید؟ لذت ببرید، سود ببرید و بازی های بهتری بسازید
به طور مشابه، بلاکچینها میتوانند توسعه مجموعه دادههای متنوعتر و نمایندهتر را با تسهیل به اشتراکگذاری امن و کارآمد دادهها در میان چندین طرف تسهیل کنند.
همچنین، با تمرکززدایی فرآیند آموزش، بلاک چین میتواند چندین طرف را قادر سازد تا دانش و تخصص خود را به اشتراک بگذارند، که میتواند به کاهش تأثیر دیدگاههای جانبدارانه کمک کند.
حفظ عینیت عینی مستلزم توجه به مراحل مختلف توسعه هوش مصنوعی از جمله جمع آوری داده ها، آموزش مدل و ارزیابی است. علاوه بر این، نظارت مستمر و بهروزرسانی سیستمهای هوش مصنوعی برای پرداختن به سوگیریهای بالقوهای که ممکن است در طول زمان ایجاد شوند، بسیار مهم است.
برای به دست آوردن درک عمیق تر از اینکه آیا فناوری بلاک چین می تواند سیستم های هوش مصنوعی را کاملاً خنثی کند، کوین تلگراف با بن گورتزل، بنیانگذار و مدیر عامل SingularityNET، پروژه ای که هوش مصنوعی و بلاک چین را ترکیب می کند، تماس گرفت.
به گفته وی، مفهوم “عینیت کامل” در زمینه سیستم های اطلاعات محدودی که مجموعه داده های محدود را تجزیه و تحلیل می کنند، کمک چندانی نمی کند.
آنچه که سیستم های بلاک چین و وب 3 می توانند ارائه دهند، بی طرفی کامل یا فقدان سوگیری نیست، بلکه شفافیت است تا کاربران بتوانند به وضوح ببینند که یک سیستم هوش مصنوعی چه تعصبی دارد. همچنین قابلیت پیکربندی باز را ارائه می دهد تا جامعه ای از کاربران بتوانند یک مدل هوش مصنوعی را تغییر دهند تا تعصب مورد نظر خود را داشته باشند و به طور شفاف ببینند که چه نوع سوگیری را منعکس می کند.
او همچنین خاطرنشان کرد که “سوگیری” کلمه کثیفی در زمینه تحقیقات هوش مصنوعی نیست. بلکه نشانه ای از جهت یک سیستم هوش مصنوعی است که به دنبال الگوهای خاصی در داده ها می گردد. با این حال، گورتزل اذعان کرد که تحریفهای غیرشفاف تحمیل شده توسط آژانسهای مرکزی بر کاربرانی که از آنها بیاطلاع هستند – در عین حال تحت تأثیر آنها هستند – چیزی است که مردم باید مراقب آن باشند. گفت:
اکثر الگوریتمهای رایج هوش مصنوعی مانند ChatGPT از نظر شفافیت و افشای سوگیریهای خود ضعیف هستند. بنابراین بخشی از آنچه برای رسیدگی صحیح به موضوع تعصب هوش مصنوعی لازم است، شبکههای مشارکتی غیرمتمرکز و مدلهای باز است، نه تنها منبع باز، بلکه وزن باز آموزشدیده نیز. ماتریس ها مدل های اقتباسی با محتوای صریح هستند.
به طور مشابه، دن پترسون، مدیر عامل Tenet، یک شبکه بلاک چین متمرکز بر هوش مصنوعی، به کوین تلگراف گفت که اندازه گیری عینیت دشوار است و برخی از معیارهای هوش مصنوعی نمی توانند بی طرفانه باشند زیرا هیچ خط قابل اندازه گیری برای زمانی که یک مجموعه داده بی طرفی خود را از دست می دهد وجود ندارد. به گفته وی، در نهایت به منظری می رسد که مهندس خط را می کشد و این خط می تواند از فردی به فرد دیگر متفاوت باشد.
مفهوم واقعی «خنثی» بودن هر چیزی از لحاظ تاریخی چالش بزرگی بوده است. اگرچه تعیین حقیقت مطلق در هر مجموعه داده ای که به سیستم های هوش مصنوعی مولد تغذیه می شود دشوار است، کاری که می توانیم انجام دهیم استفاده از ابزارهایی است که با استفاده از بلاک چین و فناوری Web3 به راحتی در دسترس ما قرار گرفته اند.
پترسون خاطرنشان کرد که تکنیکهای ساخته شده بر اساس سیستمهای توزیعشده، قابلیت تأیید و حتی اثبات اجتماعی میتواند به ما در طراحی سیستمهای هوش مصنوعی که به حقیقت مطلق «نزدیک» میشوند کمک کند. با این حال، این هنوز یک راه حل کلید در دست نیست. این فناوریهای نوظهور به ما کمک میکنند تا در ادامه ساختن سیستمهای فردا، با سرعتی سرسامآور پیش ببریم.»
به دنبال آینده ای مبتنی بر هوش مصنوعی
مقیاس پذیری همچنان یک نگرانی اصلی برای فناوری بلاک چین است. همانطور که تعداد کاربران و تراکنشها افزایش مییابد، ممکن است توانایی راهحلهای بلاک چین برای مدیریت حجم عظیمی از دادههای تولید شده و پردازش شده توسط سیستمهای هوش مصنوعی را محدود کند. علاوه بر این، حتی پذیرش راهحلهای مبتنی بر بلاک چین و ادغام آنها در هوش مصنوعی موجود، چالشهای مهمی را ایجاد میکند.
آخرین: ارز دیجیتال در اروپا: اکونومیست MiCA و آینده استیبل کوین ها را بررسی می کند
اول، عدم درک و تخصص در هر دو فناوریهای هوش مصنوعی و بلاک چین وجود دارد که میتواند مانع توسعه و اجرای راهحلهایی شود که به طور موثر هر دو پارادایم را ترکیب میکنند. دوم، متقاعد کردن ذینفعان در مورد مزایای پلتفرمهای بلاک چین، حداقل در ابتدا، میتواند دشوار باشد، بهویژه وقتی صحبت از اطمینان از انتقال بیطرفانه دادههای هوش مصنوعی به میان میآید.
علیرغم این چالشها، فناوری بلاک چین پتانسیل فوقالعادهای در برقراری تعادل بین چشمانداز هوش مصنوعی بهسرعت در حال تکامل دارد. با استفاده از ویژگیهای اصلی بلاک چین مانند تمرکززدایی، شفافیت و تغییرناپذیری، میتوان سوگیری در جمعآوری، مدیریت و برچسبگذاری دادهها را کاهش داد و در نهایت منجر به سیستمهای هوش مصنوعی عادلانهتر شد. بنابراین، جالب است که ببینیم آینده از اینجا چگونه ادامه می یابد.
نویسنده: Shiraz Jagati