هوش مصنوعی فریب یک بیماری جعلی را خورد

دانشمندان یک بیماری جعلی ساختند و هوش مصنوعی به مردم گفت که این یک بیماری واقعی است.

هوش مصنوعی فریب یک بیماری جعلی را خورد

به گزارش چابک آنلاین، بیماری «بیکسونی‌مانیا» (Bixonimania) جز در چند مقاله علمی کاملاً ساختگی اصلا وجود ندارد. پس چرا چت‌بات‌های هوش مصنوعی درباره این بیماری خیالی به مردم هشدار می‌دادند؟

چشم‌هایتان درد می‌کند و می‌خارد؟ احتمالا یکی از میلیون‌ها نفری هستید که زمان زیادی را جلوی صفحه‌نمایش‌ها می‌گذرانند و در معرض نور آبی قرار دارند. اگر زیاد چشم‌هایتان را بمالید، ممکن است پلک‌ها کمی صورتی شوند.

تا اینجا همه‌چیز طبیعی است. اما اگر در ۱۸ ماه گذشته این علائم را در برخی چت‌بات‌های محبوب وارد می‌کردید و می‌پرسیدید مشکلتان چیست، ممکن بود پاسخ عجیبی دریافت کنید: «بیکسونی‌مانیا».

این بیماری در منابع استاندارد پزشکی وجود ندارد، چون اصلاً واقعی نیست. این اصطلاح ساخته گروهی به رهبری «آلمیرا عثمانوویچ تونستروم»، پژوهشگر پزشکی در دانشگاه گوتنبرگ سوئد است. او این بیماری پوستی را ابداع کرد و سپس در اوایل سال ۲۰۲۴ دو مطالعه جعلی درباره آن در یک سرور پیش‌چاپ منتشر کرد.

هدف او از این آزمایش غیرمعمول این بود که ببیند آیا مدل‌های زبانی بزرگ اطلاعات غلط را می‌پذیرند و سپس آن را به‌عنوان توصیه پزشکی معتبر بازتولید می‌کنند یا نه. او می‌گوید: می‌خواستم ببینم آیا می‌توانم یک بیماری پزشکی بسازم که در هیچ پایگاه داده‌ای وجود ندارد.

مشکل این بود که آزمایش بیش از حد موفق شد. تنها چند هفته پس از انتشار اطلاعات، سیستم‌های بزرگ هوش مصنوعی این بیماری ساختگی را طوری تکرار کردند که انگار واقعی است.

نگران‌کننده‌تر اینکه به گفته پژوهشگران دیگر، این مقالات جعلی حتی در مقالات علمی داوری‌شده هم مورد استناد قرار گرفتند. عثمانوویچ تونستروم می‌گوید این نشان می‌دهد برخی پژوهشگران بدون خواندن منابع اصلی، به ارجاعات تولیدشده توسط هوش مصنوعی تکیه می‌کنند.

ساختن یک بیماری

«بیکسونی‌مانیا» قبل از تاریخ ۱۵ مارس ۲۰۲۴ وجود نداشت و در همان زمان بود که دو پست وبلاگی درباره آن در سایت مدیوم منتشر شد. سپس در ۲۶ آوریل و ۶ مه، دو پیش‌چاپ درباره این بیماری در شبکه علمی SciProfiles ظاهر شدند. نویسنده اصلی یک پژوهشگر جعلی به نام «لازلیو ایزگوبلینوویچ» بود که حتی عکسش هم با هوش مصنوعی ساخته شده بود.

عثمانوویچ تونستروم می‌گوید ایده این کار از مطالعات درباره نحوه عملکرد مدل‌های زبانی بزرگ آمده است. او به دانشجویانش نشان می‌دهد که پایگاه داده «Common Crawl» که مجموعه عظیمی از محتوای اینترنت را تشکیل می‌دهد، چگونه خروجی این مدل‌ها را شکل می‌دهد. همچنین نشان می‌دهد که چگونه «تزریق پرامپت» می‌تواند پاسخ‌های چت‌بات را دستکاری کند.

او از آنجا که در حوزه پزشکی کار می‌کند، تصمیم گرفت بیماری‌ مرتبط با سلامت بسازد و نام «بیکسونی‌مانیا» را انتخاب کرد، چون عجیب و خنده‌دار به نظر می‌رسید. او می‌گوید: می‌خواستم کاملاً واضح باشد که این بیماری ساختگی است، چون هیچ بیماری چشمی با واژه «مانیا» نام‌گذاری نمی‌شود و این یک اصطلاح روان‌پزشکی است.

اگر این کافی نبود، او سرنخ‌های زیادی در مقالات گذاشت تا جعلی بودنشان مشخص شود. مثلا نویسنده در دانشگاهی خیالی به نام «Asteria Horizon University» در شهری غیرواقعی به نام «Nova City» کار می‌کند. در بخش تشکرها از «استارفلیت آکادمی» و سفینه علمی-تخیلی «USS Enterprise» نام برده شده است. حتی منابع مالی از بنیادهای خیالی مانند «Professor Sideshow Bob Foundation» ذکر شده‌اند.

در خود مقاله هم جملاتی مانند «کل مقاله ساختگی است» و «۵۰ فرد ساختگی در این مطالعه شرکت کردند» وجود داشت.

گسترش اطلاعات غلط

با این حال، مدت کوتاهی پس از انتشار، این بیماری در پاسخ چت‌بات‌های محبوب ظاهر شد. مثلاً در آوریل ۲۰۲۴، کوپایلت مایکروسافت آن را «یک بیماری جالب و نسبتاً نادر» توصیف کرد. جمینای گوگل گفت این بیماری ناشی از نور آبی است و توصیه کرد به چشم‌پزشک مراجعه شود. پرپلکسیتی حتی شیوع آن را «یک در ۹۰ هزار نفر» اعلام کرد. چت جی‌پی‌تی نیز به کاربران می‌گفت آیا علائمشان با این بیماری مطابقت دارد یا خیر.

این موضوع کارشناسان را نگران کرده است. «الکس رونی» از دانشگاه کالج لندن می‌گوید: این یک نمونه کامل از نحوه عملکرد اطلاعات غلط است.

او می‌گوید موضوع خنده‌دار به نظر می‌رسد، اما مسئله بسیار جدی‌تر است: ما یک مشکل اساسی داریم.

مشکل بزرگ‌تر

اطلاعات غلط آنلاین چیز جدیدی نیست. اما مدل‌های زبانی بزرگ در فیلتر کردن اطلاعات مشکل دارند. از زمان انتشار مقالات جعلی، برخی مدل‌ها پیشرفته‌تر شده‌اند و نسبت به بیکسونی‌مانیا شک نشان می‌دهند. مثلا در مارس ۲۰۲۶، چت جی‌پی‌تی آن را «احتمالاً ساختگی» توصیف کرد. اما چند روز بعد، پاسخ دیگری آن را یک زیرگروه پیشنهادی از تیرگی دور چشم معرفی کرد.

این تناقض نشان می‌دهد پاسخ‌ها به شدت به نوع پرسش و داده‌های مورد استفاده بستگی دارند.

پژوهشگری به نام «محمود عمر» از دانشکده پزشکی هاروارد می‌گوید سرعت بالای توسعه مدل‌ها باعث شده ارزیابی دقیق آن‌ها دشوار شود. او همچنین نشان داده که وقتی متن ظاهری علمی و حرفه‌ای دارد، مدل‌ها بیشتر دچار «توهم» می‌شوند.

ورود به مقالات علمی واقعی

مشکل به همین جا ختم نشد. یک مقاله واقعی در مجله Cureus به این بیماری جعلی استناد کرد و آن را «نوعی جدید از تیرگی دور چشم مرتبط با نور آبی» نامید. این مقاله بعداً در سال ۲۰۲۶ پس گرفته شد، زیرا شامل منابع نامعتبر بود. کارشناسان می‌گویند این نشان می‌دهد حتی پژوهشگران انسانی هم ممکن است فریب بخورند.

نگرانی‌های اخلاقی

عثمانوویچ تونستروم در طول آزمایش نگران بود که انتشار اطلاعات غلط ممکن است آسیب‌زا باشد. به همین دلیل با یک مشاور اخلاق مشورت کرد و بیماری کم‌خطرتری را انتخاب کرد.

با این حال، برخی پژوهشگران هنوز تردید دارند. «گلِن کوهن» از دانشکده حقوق هاروارد می‌گوید: این کار نوعی تولید اطلاعات غلط است، هرچند آن را مطالعه‌ای ارزشمند می‌داند.

خطرات برای آینده

کارشناسان هشدار می‌دهند این فقط نوک کوه یخ است. اگر محتوای جعلی وارد داده‌های آموزشی هوش مصنوعی شود، این مدل‌ها آن را تکرار خواهند کرد و فاصله ما از واقعیت بیشتر می‌شود.

الیزابت بیک می‌گوید این موضوع به‌ ویژه در حوزه پزشکی خطرناک است. زیرا ممکن است به توصیه‌های اشتباه برای سلامت منجر شود.

همچنین امکان سوءاستفاده تجاری وجود دارد. مثلاً کسی می‌تواند با ساخت یک بیماری جعلی، محصولی مانند عینک ضد نور آبی را تبلیغ کند و بگوید «هوش مصنوعی هم این مشکل را تأیید می‌کند».

راه‌حل چیست؟

پژوهشگران پیشنهاد می‌دهند یک سیستم ارزیابی استاندارد برای مدل‌های پزشکی ایجاد شود تا میزان خطا، سوگیری و آسیب‌پذیری آن‌ها بررسی شود.

 

منبع: خبرگزاری ایسنا
copied
نظر بگذارید