فیلم بیشتر »»
کد خبر ۱۱۲۲۱۲۴
تاریخ انتشار: ۱۳:۲۰ - ۱۹-۰۹-۱۴۰۴
کد ۱۱۲۲۱۲۴
انتشار: ۱۳:۲۰ - ۱۹-۰۹-۱۴۰۴

این مدل‌های هوش مصنوعی بیشترین آمار پاسخ غلط را دارند

این مدل‌های هوش مصنوعی بیشترین آمار پاسخ غلط را دارند
طبق گزارشی که اخیرا نیویورک‌تایمز منتشر کرده در جدول «نرخ هالوسینیشن» یا همان توهم، مدل‌هایی مانند گراک، دیپ سیک، جیمنای و برخی مدل‌های کمتر شناخته‌شده در فهرست بیشترین نرخ خطا و توهم هوش مصنوعی قرار دارند. شاید دیدن نام بعضی مدل‌ها و میزان خطای آن برای ما جای تعجب داشته باشد. اما این آمار از دل تحقیقات جدید دانشگاه کلمبیا بیرون آمده است.

مدل‌های هوش مصنوعی به‌سرعت در حال رشد و توسعه هستند. شرکت‌های فناوری هرکدام به شکلی سعی می‌کنند از این رقابت عقب نمانند. این مدل‌ها از مراقبت‌های بهداشتی و مالی گرفته تا سرگرمی و ارتباطات هوش مصنوعی برای عامه مردم تبدیل به محل اعتماد شده است.

به گزارش همشهری آنلاین، اگرچه این فناوری مزایای باورنکردنی دارد، اما خطرات جدی نیز به همراه دارد، به‌خصوص از جانب برخی از ابزارهای هوش مصنوعی که پتانسیل سوءاستفاده یا عواقب ناخواسته را دارند. ممکن است به سبب تبلیغات اعتماد ما به مدل‌های مطرح‌تر بیشتر باشد اما برخی از آنها بیشترین میزان پاسخ غلط را دارند.

 جای تعجب است که بسیاری از این فناوری‌های خطرناک همچنان در معرض توجه بحث‌های اصلی قرار دارند و افراد، سازمان‌ها و سیاستگذاران برای مقابله با آنها آماده نیستند. در این مطلب برخی از پراشتباه‌ترین مدل‌های هوش مصنوعی را بررسی خواهیم کرد.

شفافیت برای گمراه‌نشدن

پیشرفت‌های حاصل از مدل‌های زبان بزرگ در سال ۲۰۲۳، علاقه گسترده‌ای را به پتانسیل متحول‌کننده هوش مصنوعی نسل جدید تقریبا در هر صنعتی برانگیخت. ابزار ChatGPT از شرکت OpenAI در مرکز این افزایش علاقه قرار داشت، اما این فناوری هنوز راه درازی در پیش دارد تا بتواند به‌طور قابل اعتمادی بر اکثر فرایندها غلبه کند.

مثال برای چت جی‌پی‌تی که بیشترین استقبال را از طرف مردم زیاد و حتی بازگویی آن تکراری است. اما روشنگری و شفاف‌سازی‌ در این زمینه می‌تواند هم به ارتقای سطح الگوریتم این مدل‌ها و هم توجه بیشتر مردم در مسیر اعتماد بی‌چون و چرا به این فناوری کمک کند.

چه چیزی یک ابزار هوش مصنوعی را خطرناک می‌کند؟

احتمال سوءاستفاده: می‌توان از آن برای کلاهبرداری، نظارت یا دستکاری استفاده کرد.

عدم‌شفافیت: ممیزی یا کنترل این سیستم جعبه سیاه دشوار است.

تشدید تعصبات: کلیشه‌های مضر یا تبعیض را تقویت می‌کند.

تجاوز به حریم خصوصی: امکان دسترسی غیرمجاز یا سوءاستفاده از داده‌های شخصی را فراهم می‌کند.

خودمختاری در اقدامات مضر: می‌تواند بدون نظارت انسانی عمل کند و باعث آسیب شود.

کدام مدل هوش مصنوعی بیشترین پاسخ غلط را دارد؟

طبق گزارشی که اخیرا نیویورک‌تایمز منتشر کرده در جدول «نرخ هالوسینیشن» یا همان توهم، مدل‌هایی مانند گراک، دیپ سیک، جیمنای و برخی مدل‌های کمتر شناخته‌شده در فهرست بیشترین نرخ خطا و توهم هوش مصنوعی قرار دارند. شاید دیدن نام بعضی مدل‌ها و میزان خطای آن برای ما جای تعجب داشته باشد. اما این آمار از دل تحقیقات جدید دانشگاه کلمبیا بیرون آمده است.

گراک-۳: ۹۴درصد

گراک-۲: ۷۷درصد

جمینای: ۷۶درصد

دیپ‌سیک: ۶۸درصد

چت جی‌پی‌تی: ۶۷درصد

پرپلکسیتی پرو: ۴۵درصد

کوپایلوت: ۴۰درصد

پرپلکسیتی: ۳۷درصد

ارسال به دوستان
علاءالدین بروجردی: از عقب نشینی ترامپ تعجب نکردیم / همان وقت که مراکز گاز قطر را زدیم فهمیدند که جدی هستیم انتقاد تند زیدآبادی از لیلاز؛ کشور چقدر خسارت ببیند، رضایت می‌دهید؟! سقوط ۱۳ میلیون تومانی قیمت سکه جدید در بازار تهران قلعه‌نویی: برنامه اعزام تیم ملی به آمریکا و ترکیه تغییر کرد مهدی تاج: سیاست قطعی ما حضور جدی در جام جهانی است نبیه بری: عراقچی به ما اطمینان داد که لبنان بخشی از توافق آتش‌بس است گفت و گوی تلفنی ماکرون با پزشکیان واکنش پورموسوی به لیگ ۱۸ تیمی و وضعیت بحرانی تیم ملی در جام جهانی قطر: احتمال دستیابی به یک راه‌حل دیپلماتیک میان تهران و واشنگتن بالاست ادعای سی ان ان از جزئیات توافق ایران و آمریکا فرودگاه صبیحا استانبول به «فرودگاه بی‌صدا» تبدیل می‌شود بیانیه سفارت ایران در وین در پاسخ به « مواضع اتریش در ارتباط با امارات » بنیانگذار شبکه «سی‌ان‌ان» درگذشت آغاز ثبت‌نام آزمون EPT دانشگاه آزاد از امروز ۱۶ اردیبهشت جزئیات مالیات ۹.۳ همتی نقل‌وانتقال سهام و عملکرد بورس انرژی