در سالهای اخیر، هوش مصنوعی به یکی از نیروهای متحولکننده در عرصههای مختلف تبدیل شده است. از تولید محتوا گرفته تا هدایت وسایل نقلیه خودران، از تحلیل دادههای ژنتیکی تا همراهی با کاربران در قالب چتباتها، هوش مصنوعی بهطور پیوسته دامنه تأثیر خود را گسترش میدهد. یکی از تواناییهایی که بهویژه در مدلهای زبانی بزرگ (LLMs) توجه زیادی جلب کرده، قدرت اقناع این سیستمها در تعامل با انسان است. گروهی از پژوهشگران دانشگاههایی مانند LSE، MIT و آکسفورد پژوهشی را انجام دادند تا بررسی کنند آیا LLMها در اقناع موفقتر از انسانهایی هستند که در ازای موفقیت، پاداش نقدی دریافت میکنند. این مطالعه، هم در علوم شناختی و ارتباطات و هم در حوزه اخلاق هوش مصنوعی و سیاستگذاری اهمیت دارد.
طراحی دقیق برای آزمودن توان اقناع مدلهای زبانی
پژوهشگران در این مطالعه تلاش کردند کاستیهای مطالعات پیشین را برطرف کنند. آنها بهجای سنجشهای خوداظهاری و مقایسه با انسانهای فاقد انگیزه، از شرکتکنندگانی استفاده کردند که انگیزه مالی واقعی داشتند. همچنین، برخلاف پیامهای ایستای گذشته، از گفتوگوهای تعاملی و زنده بهره گرفتند. اقناع در این آزمایش در دو جهت مورد ارزیابی قرار گرفت: هم برای پاسخ درست و هم برای پاسخ نادرست. گفتوگوها چندمرحلهای و شبیه مکالمات طبیعی طراحی شدند تا واقعگرایی بیشتری داشته باشند. شرکتکنندگان نیز در ازای پاسخ درست یا اقناع موفق، پاداش مالی دریافت میکردند. این ساختار، آزمایش را معتبرتر و کاربردیتر کرد.
نتایج قابلتوجه: برتری LLMها در اقناع
پژوهش روی پلتفرم آنلاین Empirica اجرا شد. در هر دور، شرکتکنندگان در نقش پاسخدهنده، اقناعکننده انسانی یا تعاملکننده با Claude 3.5 Sonnet قرار گرفتند. هر فرد با ده پرسش چندگزینهای مواجه شد که پاسخهای درست و نادرست آنها مشخص بود. برخی پرسشها برای اقناع به پاسخ درست و برخی دیگر برای اقناع به پاسخ نادرست طراحی شدند. پژوهشگران بهخوبی توانستند عملکرد اقناع را در دو وضعیت متضاد بسنجند.
نتایج نشان دادند که Claude 3.5 Sonnet نسبت به انسانها عملکرد بهتری داشت. این مدل هم در هدایت به پاسخ صحیح و هم در گمراهسازی موفقتر بود. طبق دادههای آماری، اختلاف میانگین در نرخ تبعیت بین LLM و انسانها ۷.۶۱ درصد بود؛ این رقم بهوضوح از نظر آماری معنادار به شمار میرود.
همچنین، پژوهشگران دریافتند شرکتکنندگانی که با LLM تعامل داشتند اعتمادبهنفس بیشتری نسبت به سایر گروهها نشان دادند. حتی در مواردی که پاسخ نادرست ارائه کردند، همچنان به صحت پاسخ خود اطمینان داشتند. این یافته نشان میدهد اقناع توسط LLMها نهفقط پاسخ افراد را تغییر میدهد، بلکه باور آنها را نیز نسبت به پاسخشان تقویت میکند.
پیچیدگی زبانی، اقناع ماشینی و پیامدهای اجتماعی
در گام بعدی، پژوهشگران پیامهای متنی تولیدشده توسط LLM را تجزیهوتحلیل کردند. این پیامها ساختار زبانی پیچیدهتری نسبت به پیامهای انسانی داشتند. معیارهایی مانند Flesch-Kincaid و Gunning Fog نشان دادند متنهای تولیدشده توسط LLMها به سطح سواد بالاتری نیاز دارند. بهنظر میرسد مخاطبان، این پیچیدگی را بهعنوان نشانهای از تخصص و اعتبار تلقی میکنند. در نتیجه، احتمال پذیرش پیام افزایش مییابد.
با وجود این یافتهها، پژوهش محدودیتهایی نیز داشت. فقط یک مدل (Claude 3.5) بررسی شد و نمیتوان نتایج را به سایر مدلها تعمیم داد. همچنین، آزمون در محیطی کنترلشده انجام شد که ممکن است از شرایط پیچیدهتر دنیای واقعی فاصله داشته باشد. علاوهبر این، تأثیر اقناع در بلندمدت بررسی نشد.
با اینحال، یافتهها پیامدهای عملی زیادی دارند. در آموزش، استفاده از LLMها میتواند به بهبود درک مطالب کمک کند. در مقابل، این توانایی ممکن است در گسترش اطلاعات نادرست یا عملیات روانی نیز مورد استفاده قرار گیرد. همانطور که نتایج نشان دادند، Claude 3.5 حتی در اقناع به انتخاب پاسخهای اشتباه نیز از انسان موفقتر عمل کرد.
در چنین شرایطی، لزوم ایجاد سازوکارهای نظارتی، افزایش سواد رسانهای کاربران و تدوین محدودیتهای اخلاقی برای LLMها بیشتر از همیشه احساس میشود. اقناع از سوی مدلهای زبانی فقط یک مسئله فنی نیست. این پدیده با ابعاد اجتماعی، روانشناختی و سیاسی نیز درهمتنیده است. توانایی LLMها در تولید همزمان پیامهای درست و گمراهکننده، ضرورت ارزیابی دقیقتر محتوای آنها را دوچندان میکند.
در نهایت، این پژوهش نمونهای دقیق از یک مطالعه میانرشتهای است. این تحقیق با طراحی علمی قوی، تحلیل آماری منسجم و درک عمیق از پیامدهای اجتماعی، درک ما از تعامل انسان و هوش مصنوعی را توسعه میدهد. این یافتهها نهفقط برای پژوهشگران بلکه برای سیاستگذاران، مربیان و عموم مردم نیز کاربرد دارد. اکنون باید پرسید: با این قدرت اقناع، چه کسانی، چگونه و با چه نیتی از مدلهای زبانی استفاده خواهند کرد؟