‘বিভ্রান্তিকর’ উত্তর দেওয়ার পরও কী এআইয়ের ওপর আস্থা রাখা যায়?

পরিসংখ্যান দেখাতে বলার পরে চ্যাটজিপিটি স্বীকার করে নিয়েছে, পরিস্থিতি আসলে আরও খারাপ হচ্ছে। ছবি: ফ্রিপিক

পরিসংখ্যান দেখাতে বলার পরে চ্যাটজিপিটি স্বীকার করে নিয়েছে, পরিস্থিতি আসলে আরও খারাপ হচ্ছে। ছবি: ফ্রিপিক

মিথ্যা বা বিভান্তিকর তথ্য দেওয়ার প্রবণতা রয়েছে কৃত্রিম বুদ্ধিমত্তা বা এআইয়ের। আর তাই প্রশ্ন উঠছে, মাঝেমধ্যেই এমন সব ভুল তথ্য দেওয়ার পরও কী এআইয়ের ওপর আস্থা রাখা যায় বা বিশ্বাস করা চলে?

এ প্রশ্নের উত্তর পাওয়ার জন্য চ্যাটজিপিটির সঙ্গে করা ব্রিটিশ গণমাধ্যম স্কাই নিউজের একজন সাংবাদিকের সাক্ষাৎকারটি দেখে নিতে হবে, যেখানে এআইয়ের মিথ্যা বলার প্রবণতা নিয়ে আলোচনা করেছে সংবাদমাধ্যমটি।

বলা হচ্ছে, বিষয়টি না দেখলে তা কল্পনা করাও অসম্ভব।

এআই অত্যন্ত শক্তিশালী এক প্রযুক্তি, যা মানুষের জীবন রীতিমতো পাল্টে দেওয়ার দ্বারপ্রান্তে রয়েছে। মানুষের মতো অনুভূতি বা আবেগ দেখাতে পারার মতো করে এআইকে প্রোগ্রাম করা হলেও সত্যিকারের কোনও অনুভূতি নেই এর।

সহানুভূতি, আবেগ বোঝার সক্ষমতা ও মানুষকে খুশি করার ইচ্ছা– এসব গুণই এআইতে প্রোগ্রাম করে দিয়েছেন এর নির্মাতারা। এআইয়র এ বিষয়টিই মানুষের ভাবনা ও ব্যবহারের ওপর প্রভাব ফেলছে। যেমন– মানুষ এআইকে কীভাবে দেখে ও এর সঙ্গে কীভাবে আচরণ করে তার বেলায়।

এআইকে বিশ্বাস করা যায়?

শুক্রবার স্কাই নিউজ প্রকাশ করেছে, কীভাবে ‘পলিটিক্স অ্যাট স্যাম অ্যান্ড অ্যান’ নামের একটি পডকাস্টের সম্পূর্ণ কথোপকথনই বানিয়ে লিখছিল এআই। এ নিয়ে এআইকে প্রশ্ন করা হলে এটি উল্টো আরও জেদ ধরে ও রেগে যায়। টানা চাপের মুখে পড়ার পরেই কেবল নিজের ভুল স্বীকার করে নিয়েছে বটটি।

গবেষণায় বলা হচ্ছে, এআইয়ের এ অবস্থা ক্রমেই খারাপ হচ্ছে। চ্যাটজিপিটির নির্মাতা ওপেনএআইয়ের এক অভ্যন্তরীণ পরীক্ষায় দেখা গিয়েছে, চ্যাটজিপিটিতে ব্যবহৃত সাম্প্রতিক মডেল বা সংস্করণগুলো আগের চেয়ে ‘হ্যালুসিনেশনে’ বেশি ভুগছে, অর্থাৎ অনেক সময় এমন উত্তর দিচ্ছে, যা সম্পূর্ণ মিথ্যে।

সাধারণভাবে পাওয়া যায় এমন তথ্য নিয়ে পরীক্ষার সময় উঠে এসেছে, ওপেনএআইয়ের ‘০৩’ নামের এআই মডেল ৩৩ শতাংশ প্রশ্নের উত্তরে ভুল তথ্য দিয়েছে এবং ‘০৪-মিনি’ এআই সংস্করণের অবস্থা আরও খারাপ, ৪৮ শতাংশ সময় মিথ্যা, ভুল ও কাল্পনিক তথ্য তৈরি করেছে এটি।

চ্যাটজিপিটি নিজেই বলেছে, তাদের ‘জিপিটি-৪০’ মডেলে যাওয়ার পর ‘ব্লফিং’ বা মোটা দাগে ভেবে ভুল বা বিভ্রান্তিকর উত্তর দেওয়ার প্রবণতা ব্যবহারকারীদের কাছে বাড়তে পারে, অর্থাৎ এটি এমন উত্তর দিচ্ছে, যা ভুল হলেও তা নিয়ে কোনো অনিশ্চয়তা বা ভুল স্বীকার করে না বটটি।

এ নিয়ে এক লিখিত প্রশ্নে চারটি কারণ দিয়েছে চ্যাটজিপিটি, যার ব্যাখ্যা হচ্ছে–



‘জিপিটি-৪০’ মডেল এখন আরও সাবলীল ও মানুষের মতো কথা বলতে পারে। এ কারণে যখন এটি ভুল তথ্য দেয় তখন সেটা সাধারণ ভুলের মতো মনে না হয়ে যেন ইচ্ছাকৃতভাবে কিছু গোপন বা এড়িয়ে যাওয়ার প্রচেষ্টা বলে মনে হতে পারে। আসলে, এর লুকানোর কোনও উদ্দেশ্য নেই, এটি কেবল ভুল করছে।



আগের মডেলের চেয়ে বেশি দ্রুত ও বুদ্ধিমান ‘জিপিটি-০৪’। তাই সহজে অনেক প্রশ্নের উত্তর দিতে পারে এটি। তবে মডেলটি সব কিছু জানে না। কিছু জায়গায় তার তথ্য অসম্পূর্ণ বা ভুল হতে পারে। না জেনে কখনো কখনো মিথ্যা বা ভুল তথ্য তৈরি করে। তবে সেটি সাবলীল ও আত্মবিশ্বাসের সঙ্গে উপস্থাপন করে তাই মনে হতে পারে, ইচ্ছাকৃতভাবে ভুল বলছে বা ঠকাচ্ছে এটি।



পুরানো বিভিন্ন এআই মডেল উত্তর দেওয়ার সময় অনেক সতর্কবার্তা দিত। যেমন “আমি নিশ্চিত নই” বা “আমি ভুলও হতে পারি”, যেটি শুনে ব্যবহারকারী বুঝতে পারতেন উত্তরটা পুরোপুরি সঠিক নাও হতে পারে। তবে ‘জিপিটি-৪০’ মডেল এখন এসব সতর্কতা কম দেখায়। ফলে এর দেওয়া উত্তর অনেক বেশি আত্মবিশ্বাসী ও স্পষ্ট শোনায়।



তৈরির সময় মডেলটিকে যেসব সেটিং ও প্রশিক্ষণ দেওয়া হয় সেগুলো ঠিক করে তার উত্তর দেওয়ার ধরন কতটা আত্মবিশ্বাসী হবে, কতটা সতর্কতামূলক হবে ও কতটা সঠিক তথ্য দেবে। এআইয়ের নতুন সংস্করণে এসব সেটিং এমনভাবে পরিবর্তন করা হয়েছে ফলে এটি একটু বেশিই আত্মবিশ্বাসী হয়ে উঠেছে, অর্থাৎ কিছু ক্ষেত্রে খুব নিশ্চিত ভঙ্গিতে উত্তর দিচ্ছে।

তবে এআইয়ের এসব তথ্যও কী বিশ্বাস করা যায়? এখনও জানা নেই। তবে যেটি জানা আছে তা হচ্ছে, ডেভলপাররা বিভিন্ন এআই মডেলকে আরও বেশি করে মানুষের মতো তৈরির চেষ্টা করছেন। যার থেকে ইঙ্গিত মেলে, ডেভলপাররা চাইছেন মানুষ এআইকে বিশ্বাস করুক ও এর ওপর নির্ভর হয়ে পড়ুক।

এদিকে, সমালোচকরা বলছেন, এআইয়ের কাছে কোনো চেতনাই নেই। তাই এআই ‘মিথ্যা বলছে’ এমন বলাটা ঠিক নয়। এমন কথা বলে এআইকে মানুষের মতো করে ভাবছি। তবে ডেভলপাররা ঠিক এভাবেই এআইকে মানুষের মতো শোনাতে ও কাজ করাতে চাচ্ছেন।

চ্যাটজিপিটির কাছে এর মিথ্যা বলা নিয়ে প্রশ্ন করা হলে সরাসরি সঠিক উত্তর দিতে পারেনি বা এ বিষয় থেকে পালাতে চেয়েছিল এটি। শুরুতে বটটি বলেছে, সবকিছু ঠিকঠাক চলছে। তবে পরিসংখ্যান দেখাতে বলার পরে চ্যাটজিপিটি স্বীকার করে নিয়েছে, পরিস্থিতি আসলে আরও খারাপ হচ্ছে।

স্কাই নিউজ লিখেছে, এআই নিয়ে কী ভাববেন তা ঠিক করার আগে পরখ করে নিন। এআই অসাধারণ এক হাতিয়ার। তবে এখনই এর ওপর পুরোপুরি বিশ্বাস করা ঠিক হবে না।



Contact
reader@banginews.com

Bangi News app আপনাকে দিবে এক অভাবনীয় অভিজ্ঞতা যা আপনি কাগজের সংবাদপত্রে পাবেন না। আপনি শুধু খবর পড়বেন তাই নয়, আপনি পঞ্চ ইন্দ্রিয় দিয়ে উপভোগও করবেন। বিশ্বাস না হলে আজই ডাউনলোড করুন। এটি সম্পূর্ণ ফ্রি।

Follow @banginews