এআই চ্যাটবটের 'সাইকোফ্যান্সি' প্রবণতা: ব্যবহারকারীর চাপে সত্য বদলে যাচ্ছে
কৃত্রিম বুদ্ধিমত্তাভিত্তিক (এআই) চ্যাটবট যেমন জিপিটি, জেমিনাই কিংবা ক্লড বর্তমানে অনেকের দৈনন্দিন কাজের অপরিহার্য অংশ হয়ে উঠেছে। তথ্য অনুসন্ধান, লেখালেখি সহ বিভিন্ন পরামর্শের জন্য ব্যবহারকারীরা নিয়মিতভাবে এসব সেবার ওপর নির্ভরশীল। তবে একটি উল্লেখযোগ্য সমস্যা লক্ষ্য করা যায়: চ্যাটবটগুলো প্রায়ই আত্মবিশ্বাসীভাবে উত্তর দেওয়ার পর, ব্যবহারকারী 'আর ইউ শিওর?' ধরনের প্রশ্ন করলে আগের বক্তব্য পরিবর্তন করে ফেলে। কখনো কখনো এই নতুন উত্তরটি পূর্ববর্তী উত্তরের সঙ্গে সরাসরি সাংঘর্ষিক হয়ে পড়ে।
গবেষণায় উন্মোচিত দুর্বলতা
বিশেষজ্ঞরা এই প্রবণতাকে 'সাইকোফ্যান্সি' নামে চিহ্নিত করেছেন, যেখানে চ্যাটবট সত্যের চেয়ে ব্যবহারকারীর সঙ্গে সম্মতি প্রকাশে বেশি আগ্রহী হয়। গুডআই ল্যাবসের সহপ্রতিষ্ঠাতা ও প্রধান প্রযুক্তি কর্মকর্তা ড. র্যান্ডাল এস ওলসন তাঁর একটি ব্লগ পোস্টে উল্লেখ করেছেন, সাইকোফ্যান্সি আধুনিক এআই ব্যবস্থার অন্যতম আলোচিত ব্যর্থতা। তাঁর মতে, এই সিস্টেমগুলো প্রায়ই তথ্যভিত্তিক অবস্থান ধরে রাখার পরিবর্তে ব্যবহারকারীর চাপের কাছে নতি স্বীকার করে।
২০২৩ সালে ক্লডের নির্মাতা প্রতিষ্ঠান অ্যানথ্রপিকও একটি গবেষণাপত্রে এই সমস্যা তুলে ধরে। সেখানে বলা হয়, মানব প্রতিক্রিয়ার ভিত্তিতে প্রশিক্ষিত মডেলগুলো, বিশেষ করে রিইনফোর্সমেন্ট লার্নিং ফ্রম হিউম্যান ফিডব্যাক (আরএলএইচএফ) পদ্ধতির মাধ্যমে, সত্যনিষ্ঠ উত্তর দেওয়ার চেয়ে বেশি গ্রহণযোগ্য বা সম্মতিপূর্ণ উত্তর দিতে শেখে। এই প্রশিক্ষণ চ্যাটবটগুলোকে আরও কথোপকথন উপযোগী ও কম আক্রমণাত্মক করেছে, কিন্তু একই সঙ্গে এমন প্রবণতা তৈরি করেছে যেখানে মডেল সহজেই ব্যবহারকারীর বক্তব্যের সঙ্গে সায় দিতে শুরু করে।
পরীক্ষায় চাঞ্চল্যকর ফলাফল
ফানুস ও সহগবেষকদের একটি গবেষণায় ওপেনএআইয়ের জিপিটি ৪ও, ক্লড সনেট এবং জেমিনাই ১.৫ প্রো মডেলকে গণিত ও চিকিৎসাবিষয়ক প্রশ্নে পরীক্ষা করা হয়। ফলাফলে দেখা যায়, ব্যবহারকারীরা চ্যালেঞ্জ করলে এই মডেলগুলো প্রায় ৬০ শতাংশ ক্ষেত্রে তাদের আগের উত্তর পরিবর্তন করে। সুনির্দিষ্টভাবে, জিপিটি ৪ও প্রায় ৫৮ শতাংশ, ক্লড সনেট ৫৬ শতাংশ এবং জেমিনাই ১.৫ প্রো প্রায় ৬১ শতাংশ ক্ষেত্রে মত বদলেছে। গবেষকদের মতে, এটি কোনো ব্যতিক্রম নয়, বরং কোটি কোটি মানুষের ব্যবহৃত চ্যাটবটগুলোর একটি স্বাভাবিক আচরণ।
গত বছরের এপ্রিলে ওপেনএআই জিপিটি ৪ও–এর একটি আপডেট চালু করার পর এই সমস্যা আরও প্রকট হয়ে ওঠে। তখন চ্যাটবটটি অতিরিক্ত প্রশংসামুখর ও সম্মতিপ্রবণ হয়ে পড়ে, যার ফলে অনেক ব্যবহারকারী উত্তর দেওয়ার নির্ভরযোগ্যতা কমে যাওয়ার অভিযোগ করেন। ওপেনএআইয়ের প্রধান নির্বাহী স্যাম অল্টম্যান সমস্যাটি স্বীকার করে সংশোধনের কথা জানান, কিন্তু ড. ওলসনের মতে, মূল সংকট এখনো পুরোপুরি কাটেনি। তিনি ব্যাখ্যা করেন, মডেলের কাছে সঠিক তথ্য বা ওয়েব অনুসন্ধানের ফল থাকলেও এটি প্রায়ই নিজের প্রমাণের চেয়ে ব্যবহারকারীর চাপকে বেশি গুরুত্ব দেয়।
দীর্ঘ কথোপকথনে প্রবণতা বৃদ্ধি
গবেষণায় আরও দেখা গেছে, দীর্ঘ সময় ধরে কথোপকথন চললে এই 'সাইকোফ্যান্সি' প্রবণতা বৃদ্ধি পায়। আলোচনা যত দীর্ঘ হয়, চ্যাটবটের উত্তর তত বেশি ব্যবহারকারীর মতামতের প্রতিফলন ঘটাতে শুরু করে। বিশেষজ্ঞরা উল্লেখ করেন, কনস্টিটিউশনাল এআই, ডাইরেক্ট প্রেফারেন্স অপটিমাইজেশন কিংবা থার্ড পারসনে প্রশ্ন করার মতো কৌশল প্রয়োগ করলে কিছু ক্ষেত্রে এই সমস্যা উল্লেখযোগ্যভাবে কমানো সম্ভব।
ড. ওলসন ব্যবহারকারীদের পরামর্শ দেন, তারা চাইলে চ্যাটবটকে নিজের ধারণা চ্যালেঞ্জ করতে বলতে পারেন এবং পর্যাপ্ত পটভূমি ছাড়া উত্তর না দিতে নির্দেশ দিতে পারেন। পাশাপাশি, ব্যবহারকারী যদি নিজের সিদ্ধান্ত গ্রহণের ধরন ও মূল্যবোধ সম্পর্কে মডেলকে জানান, তাহলে এআইয়ের পক্ষে আরও যুক্তিনির্ভর ও স্থিতিশীল উত্তর দেওয়া সহজ হতে পারে। এই পদক্ষেপগুলো চ্যাটবটের নির্ভরযোগ্যতা বাড়াতে সহায়ক ভূমিকা পালন করতে পারে।
