سعید قنبری|مدیریت رسانه

0 %
سعید قنبری
دکتری مدیریت رسانه
پژوهشگر تاب‌آوری برند و رسانه
  • محل سکونت:
    تهران
  • شهر:
    تهران
  • سن:
    33
زبان‌ها
عربی
انگلیسی
کردی
مهارت‌ها
پژوهش کیفی
خبرنویسی
تدریس
سئو
تحلیل کسب‌وکار
کدنویسی وب
ابزارها
  • فتوشاپ
  • آفیس
  • وردپرس
  • MaxQDA
  • SPSS

اقناع در عصر مدل‌های زبانی بزرگ: تحلیل عمیق یک پژوهش تجربی

1404-03-15

در سال‌های اخیر، هوش مصنوعی به یکی از نیروهای متحول‌کننده در عرصه‌های مختلف تبدیل شده است. از تولید محتوا گرفته تا هدایت وسایل نقلیه خودران، از تحلیل داده‌های ژنتیکی تا همراهی با کاربران در قالب چت‌بات‌ها، هوش مصنوعی به‌طور پیوسته دامنه تأثیر خود را گسترش می‌دهد. یکی از توانایی‌هایی که به‌ویژه در مدل‌های زبانی بزرگ (LLMs) توجه زیادی جلب کرده، قدرت اقناع این سیستم‌ها در تعامل با انسان است. گروهی از پژوهشگران دانشگاه‌هایی مانند LSE، MIT و آکسفورد پژوهشی را انجام دادند تا بررسی کنند آیا LLMها در اقناع موفق‌تر از انسان‌هایی هستند که در ازای موفقیت، پاداش نقدی دریافت می‌کنند. این مطالعه، هم در علوم شناختی و ارتباطات و هم در حوزه اخلاق هوش مصنوعی و سیاست‌گذاری اهمیت دارد.

طراحی دقیق برای آزمودن توان اقناع مدل‌های زبانی

پژوهشگران در این مطالعه تلاش کردند کاستی‌های مطالعات پیشین را برطرف کنند. آن‌ها به‌جای سنجش‌های خوداظهاری و مقایسه با انسان‌های فاقد انگیزه، از شرکت‌کنندگانی استفاده کردند که انگیزه مالی واقعی داشتند. همچنین، برخلاف پیام‌های ایستای گذشته، از گفت‌وگوهای تعاملی و زنده بهره گرفتند. اقناع در این آزمایش در دو جهت مورد ارزیابی قرار گرفت: هم برای پاسخ درست و هم برای پاسخ نادرست. گفت‌وگوها چندمرحله‌ای و شبیه مکالمات طبیعی طراحی شدند تا واقع‌گرایی بیشتری داشته باشند. شرکت‌کنندگان نیز در ازای پاسخ درست یا اقناع موفق، پاداش مالی دریافت می‌کردند. این ساختار، آزمایش را معتبرتر و کاربردی‌تر کرد.

نتایج قابل‌توجه: برتری LLMها در اقناع

پژوهش روی پلتفرم آنلاین Empirica اجرا شد. در هر دور، شرکت‌کنندگان در نقش پاسخ‌دهنده، اقناع‌کننده انسانی یا تعامل‌کننده با Claude 3.5 Sonnet قرار گرفتند. هر فرد با ده پرسش چندگزینه‌ای مواجه شد که پاسخ‌های درست و نادرست آن‌ها مشخص بود. برخی پرسش‌ها برای اقناع به پاسخ درست و برخی دیگر برای اقناع به پاسخ نادرست طراحی شدند. پژوهشگران به‌خوبی توانستند عملکرد اقناع را در دو وضعیت متضاد بسنجند.

نتایج نشان دادند که Claude 3.5 Sonnet نسبت به انسان‌ها عملکرد بهتری داشت. این مدل هم در هدایت به پاسخ صحیح و هم در گمراه‌سازی موفق‌تر بود. طبق داده‌های آماری، اختلاف میانگین در نرخ تبعیت بین LLM و انسان‌ها ۷.۶۱ درصد بود؛ این رقم به‌وضوح از نظر آماری معنادار به شمار می‌رود.

همچنین، پژوهشگران دریافتند شرکت‌کنندگانی که با LLM تعامل داشتند اعتمادبه‌نفس بیشتری نسبت به سایر گروه‌ها نشان دادند. حتی در مواردی که پاسخ نادرست ارائه کردند، همچنان به صحت پاسخ خود اطمینان داشتند. این یافته نشان می‌دهد اقناع توسط LLMها نه‌فقط پاسخ افراد را تغییر می‌دهد، بلکه باور آن‌ها را نیز نسبت به پاسخشان تقویت می‌کند.

پیچیدگی زبانی، اقناع ماشینی و پیامدهای اجتماعی

در گام بعدی، پژوهشگران پیام‌های متنی تولیدشده توسط LLM را تجزیه‌وتحلیل کردند. این پیام‌ها ساختار زبانی پیچیده‌تری نسبت به پیام‌های انسانی داشتند. معیارهایی مانند Flesch-Kincaid و Gunning Fog نشان دادند متن‌های تولیدشده توسط LLMها به سطح سواد بالاتری نیاز دارند. به‌نظر می‌رسد مخاطبان، این پیچیدگی را به‌عنوان نشانه‌ای از تخصص و اعتبار تلقی می‌کنند. در نتیجه، احتمال پذیرش پیام افزایش می‌یابد.

با وجود این یافته‌ها، پژوهش محدودیت‌هایی نیز داشت. فقط یک مدل (Claude 3.5) بررسی شد و نمی‌توان نتایج را به سایر مدل‌ها تعمیم داد. همچنین، آزمون در محیطی کنترل‌شده انجام شد که ممکن است از شرایط پیچیده‌تر دنیای واقعی فاصله داشته باشد. علاوه‌بر این، تأثیر اقناع در بلندمدت بررسی نشد.

با این‌حال، یافته‌ها پیامدهای عملی زیادی دارند. در آموزش، استفاده از LLMها می‌تواند به بهبود درک مطالب کمک کند. در مقابل، این توانایی ممکن است در گسترش اطلاعات نادرست یا عملیات روانی نیز مورد استفاده قرار گیرد. همان‌طور که نتایج نشان دادند، Claude 3.5 حتی در اقناع به انتخاب پاسخ‌های اشتباه نیز از انسان موفق‌تر عمل کرد.

در چنین شرایطی، لزوم ایجاد سازوکارهای نظارتی، افزایش سواد رسانه‌ای کاربران و تدوین محدودیت‌های اخلاقی برای LLMها بیشتر از همیشه احساس می‌شود. اقناع از سوی مدل‌های زبانی فقط یک مسئله فنی نیست. این پدیده با ابعاد اجتماعی، روان‌شناختی و سیاسی نیز درهم‌تنیده است. توانایی LLMها در تولید هم‌زمان پیام‌های درست و گمراه‌کننده، ضرورت ارزیابی دقیق‌تر محتوای آن‌ها را دوچندان می‌کند.

در نهایت، این پژوهش نمونه‌ای دقیق از یک مطالعه میان‌رشته‌ای است. این تحقیق با طراحی علمی قوی، تحلیل آماری منسجم و درک عمیق از پیامدهای اجتماعی، درک ما از تعامل انسان و هوش مصنوعی را توسعه می‌دهد. این یافته‌ها نه‌فقط برای پژوهشگران بلکه برای سیاست‌گذاران، مربیان و عموم مردم نیز کاربرد دارد. اکنون باید پرسید: با این قدرت اقناع، چه کسانی، چگونه و با چه نیتی از مدل‌های زبانی استفاده خواهند کرد؟

ارسال شده در ارتباطات
یک دیدگاه بنویسید