قراردادهای هوشمند با کد هوش مصنوعی در صورت هک شدن ممکن است ناقص باشند و به شدت شکست بخورند: CertiK


کانگ لی، رئیس امنیت CertiK، فکر می‌کند که استفاده از ابزارهای هوش مصنوعی مانند ChatGPT برای نوشتن قراردادهای هوشمند برای برنامه‌نویسان بی‌تجربه فاجعه‌بار خواهد بود.

یکی از مدیران شرکت امنیتی بلاک چین CertiK می گوید که ابزارهای هوش مصنوعی مانند ChatGPT در OpenAI اگر برای نوشتن قراردادهای هوشمند و ساخت پروژه های ارزهای دیجیتال استفاده شوند، مشکلات، باگ ها و حملات بیشتری ایجاد خواهند کرد.

کانگ لی، رئیس امنیت CertiK، در 5 سپتامبر در هفته بلاک چین کره به کوین تلگراف گفت که ChatGPT مانند توسعه دهندگان با تجربه قادر به تشخیص خطاهای کد منطقی نیست.

لی پیشنهاد کرد که ChatGPT می تواند خطاهای بیشتری به جای شناسایی آنها ایجاد کند، که می تواند برای اولین بار یا برنامه نویسان سطح آماتور که به دنبال ساخت پروژه های خود هستند فاجعه بار باشد.

ChatGPT تعداد زیادی از افرادی را خواهد داشت که هرگز آن همه آموزش را ندیده اند، فوراً درگیر می شوند، آنها می توانند بلافاصله شروع به کار کنند، و من شروع به نگرانی در مورد مسائل طراحی مورفولوژیکی مدفون در آنجا کرده ام.

او افزود: “شما چیزی می نویسید و ChatGPT به شما کمک می کند تا آن را بسازید، اما به دلیل تمام این نقص های طراحی، زمانی که مهاجمان شروع به ورود می کنند، ممکن است به شدت شکست بخورد.”

در عوض، لی معتقد است که ChatGPT باید به عنوان دستیار مهندس استفاده شود، زیرا بهتر است توضیح دهد که یک خط کد در واقع به چه معناست.

“من فکر می کنم ChatGPT یک ابزار عالی برای تجزیه و تحلیل کد و مهندسی معکوس افراد است. قطعا کمک کننده خوبی است و بهره وری ما را تا حد زیادی افزایش می دهد.”

جمعیت کره ای در هفته بلاک چین برای یک سخنرانی کلیدی جمع می شوند. منبع: اندرو فنتون/کوین تلگراف

او تاکید کرد که برای نوشتن کد نباید به آن تکیه کرد، به خصوص توسط برنامه نویسان بی تجربه که می خواهند چیزی قابل کسب درآمد بسازند.

لی گفت که حداقل تا دو تا سه سال آینده از ادعاهای خود حمایت خواهد کرد و اذعان داشت که پیشرفت های سریع در هوش مصنوعی می تواند تا حد زیادی قابلیت های ChatGPT را بهبود بخشد.

فناوری هوش مصنوعی در برنامه های مهندسی اجتماعی بهتر می شود

در همین حال، ریچارد ما، یکی از بنیانگذاران و مدیر عامل شرکت امنیتی Web3 Quantstamp، در 4 سپتامبر در KBW به کوین تلگراف گفت که ابزارهای هوش مصنوعی در حملات مهندسی اجتماعی موفق تر شده اند، که بسیاری از آنها مشابه حملات انسانی هستند.

ما گفت که مشتریان Quantstamp تعداد نگران کننده ای از ابتکارات پیچیده مهندسی اجتماعی را گزارش می کنند.

“[With] اخیراً به نظر می رسد که مردم از یادگیری ماشینی برای نوشتن ایمیل و پیام استفاده می کنند. بسیار متقاعد کننده تر از تلاش های مهندسی اجتماعی چند سال پیش است.

در حالی که کاربر عادی اینترنت سال‌ها با هرزنامه‌های تولید شده توسط هوش مصنوعی دست و پنجه نرم می‌کند، Ma معتقد است که به نقطه‌ای نزدیک می‌شویم که نمی‌دانیم پیام‌های مخرب توسط هوش مصنوعی تولید شده یا توسط انسان.

مرتبط با: هک توییتر: «حمله مهندسی اجتماعی» به پنل‌های مدیریت کارکنان

“تشخیص افرادی که به شما پیامک می دهند دشوار خواهد بود. [or] او گفت: “برای هوش مصنوعی بسیار متقاعد کننده است که به شما پیامک ارسال کند و پیام شخصی بنویسد.”

کارشناسان صنعت کریپتو در حال حاضر مورد هدف قرار گرفته اند، در حالی که دیگران توسط ربات های هوش مصنوعی جعل هویت می شوند. مادرم معتقد است که وضعیت بدتر خواهد شد.

پایگاه‌های اطلاعاتی متعددی در کریپتو وجود دارد که شامل تمام اطلاعات تماس افراد کلیدی در هر پروژه است. بنابراین هکرها به آن دسترسی دارند [and] اساساً آنها یک هوش مصنوعی دارند که می‌تواند به روش‌های مختلف پیام‌ها را برای مردم ارسال کند.»

ما افزود: «بسیار دشوار است که کل شرکت خود را آموزش دهید که به این نوع چیزها پاسخ ندهد.

Ma گفت که نرم افزار ضد فیشینگ بهتری به بازار می آید که می تواند به شرکت ها کمک کند در برابر حملات احتمالی محافظت کنند.

مجله: AI Eye: اپل هوش مصنوعی تلفن همراه را بهبود می بخشد، معامله موسیقی جعلی عمیق، GPT-4 را هیپنوتیزم می کند


نویسنده: Brayden Lindrea

اشتراک گذاری و حمایت

امیر کرمی

امیر کرمی

کارشناس تولید محتوا و علاقه مند به ارز دیجیتال و دنیای فناوری 😉

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *