Last Updated on 2 weeks by zajira news
অনলাইন ডেস্ক, জাজিরা নিউজ: কৃত্রিম বুদ্ধিমত্তা বা এআইয়ের মিথ্যা বা বিভান্তিকর তথ্য দেওয়ার প্রবণতা রয়েছে । আর তাই প্রশ্ন উঠছে, মাঝেমধ্যেই এমন সব ভুল তথ্য দেওয়ার পরও কী এআইয়ের ওপর আস্থা রাখা যায় ?
এ প্রশ্নের উত্তর পাওয়ার জন্য চ্যাটজিপিটির সঙ্গে করা ব্রিটিশ গণমাধ্যম স্কাই নিউজের একজন সাংবাদিকের সাক্ষাৎকারটি দেখে নিতে হবে, যেখানে এআইয়ের মিথ্যা বলার প্রবণতা নিয়ে আলোচনা করেছে সংবাদমাধ্যমটি। বলা হচ্ছে, বিষয়টি না দেখলে তা কল্পনা করাও অসম্ভব।
এআই অত্যন্ত শক্তিশালী এক প্রযুক্তি, যা মানুষের জীবন রীতিমতো পাল্টে দেওয়ার দ্বারপ্রান্তে রয়েছে। মানুষের মতো অনুভূতি বা আবেগ দেখাতে পারার মতো করে এআইকে প্রোগ্রাম করা হলেও সত্যিকারের কোনও অনুভূতি নেই এর।
সহানুভূতি, আবেগ বোঝার সক্ষমতা ও মানুষকে খুশি করার ইচ্ছা– এসব গুণই এআইতে প্রোগ্রাম করে দিয়েছেন এর নির্মাতারা। এআইয়র এ বিষয়টিই মানুষের ভাবনা ও ব্যবহারের ওপর প্রভাব ফেলছে। যেমন– মানুষ এআইকে কীভাবে দেখে ও এর সঙ্গে কীভাবে আচরণ করে তার বেলায়।
এআইকে বিশ্বাস করা যায়?
শুক্রবার স্কাই নিউজ প্রকাশ করেছে, কীভাবে ‘পলিটিক্স অ্যাট স্যাম অ্যান্ড অ্যান’ নামের একটি পডকাস্টের সম্পূর্ণ কথোপকথনই বানিয়ে লিখছিল এআই। এ নিয়ে এআইকে প্রশ্ন করা হলে এটি উল্টো আরও জেদ ধরে ও রেগে যায়। টানা চাপের মুখে পড়ার পরেই কেবল নিজের ভুল স্বীকার করে নিয়েছে বটটি।
গবেষণায় বলা হচ্ছে, এআইয়ের এ অবস্থা ক্রমেই খারাপ হচ্ছে। চ্যাটজিপিটির নির্মাতা ওপেনএআইয়ের এক অভ্যন্তরীণ পরীক্ষায় দেখা গিয়েছে, চ্যাটজিপিটিতে ব্যবহৃত সাম্প্রতিক মডেল বা সংস্করণগুলো আগের চেয়ে ‘হ্যালুসিনেশনে’ বেশি ভুগছে, অর্থাৎ অনেক সময় এমন উত্তর দিচ্ছে, যা সম্পূর্ণ মিথ্যে।
সাধারণভাবে পাওয়া যায় এমন তথ্য নিয়ে পরীক্ষার সময় উঠে এসেছে, ওপেনএআইয়ের ‘০৩’ নামের এআই মডেল ৩৩ শতাংশ প্রশ্নের উত্তরে ভুল তথ্য দিয়েছে এবং ‘০৪-মিনি’ এআই সংস্করণের অবস্থা আরও খারাপ, ৪৮ শতাংশ সময় মিথ্যা, ভুল ও কাল্পনিক তথ্য তৈরি করেছে এটি।
চ্যাটজিপিটি নিজেই বলেছে, তাদের ‘জিপিটি-৪০’ মডেলে যাওয়ার পর ‘ব্লফিং’ বা মোটা দাগে ভেবে ভুল বা বিভ্রান্তিকর উত্তর দেওয়ার প্রবণতা ব্যবহারকারীদের কাছে বাড়তে পারে, অর্থাৎ এটি এমন উত্তর দিচ্ছে, যা ভুল হলেও তা নিয়ে কোনো অনিশ্চয়তা বা ভুল স্বীকার করে না বটটি।
এ নিয়ে এক লিখিত প্রশ্নে চারটি কারণ দিয়েছে চ্যাটজিপিটি, যার ব্যাখ্যা হচ্ছে–
> ‘জিপিটি-৪০’ মডেল এখন আরও সাবলীল ও মানুষের মতো কথা বলতে পারে। এ কারণে যখন এটি ভুল তথ্য দেয় তখন সেটা সাধারণ ভুলের মতো মনে না হয়ে যেন ইচ্ছাকৃতভাবে কিছু গোপন বা এড়িয়ে যাওয়ার প্রচেষ্টা বলে মনে হতে পারে। আসলে, এর লুকানোর কোনও উদ্দেশ্য নেই, এটি কেবল ভুল করছে।
> আগের মডেলের চেয়ে বেশি দ্রুত ও বুদ্ধিমান ‘জিপিটি-০৪’। তাই সহজে অনেক প্রশ্নের উত্তর দিতে পারে এটি। তবে মডেলটি সব কিছু জানে না। কিছু জায়গায় তার তথ্য অসম্পূর্ণ বা ভুল হতে পারে। না জেনে কখনো কখনো মিথ্যা বা ভুল তথ্য তৈরি করে। তবে সেটি সাবলীল ও আত্মবিশ্বাসের সঙ্গে উপস্থাপন করে তাই মনে হতে পারে, ইচ্ছাকৃতভাবে ভুল বলছে বা ঠকাচ্ছে এটি।
> পুরানো বিভিন্ন এআই মডেল উত্তর দেওয়ার সময় অনেক সতর্কবার্তা দিত। যেমন “আমি নিশ্চিত নই” বা “আমি ভুলও হতে পারি”, যেটি শুনে ব্যবহারকারী বুঝতে পারতেন উত্তরটা পুরোপুরি সঠিক নাও হতে পারে। তবে ‘জিপিটি-৪০’ মডেল এখন এসব সতর্কতা কম দেখায়। ফলে এর দেওয়া উত্তর অনেক বেশি আত্মবিশ্বাসী ও স্পষ্ট শোনায়।
> তৈরির সময় মডেলটিকে যেসব সেটিং ও প্রশিক্ষণ দেওয়া হয় সেগুলো ঠিক করে তার উত্তর দেওয়ার ধরন কতটা আত্মবিশ্বাসী হবে, কতটা সতর্কতামূলক হবে ও কতটা সঠিক তথ্য দেবে। এআইয়ের নতুন সংস্করণে এসব সেটিং এমনভাবে পরিবর্তন করা হয়েছে ফলে এটি একটু বেশিই আত্মবিশ্বাসী হয়ে উঠেছে, অর্থাৎ কিছু ক্ষেত্রে খুব নিশ্চিত ভঙ্গিতে উত্তর দিচ্ছে।
তবে এআইয়ের এসব তথ্যও কী বিশ্বাস করা যায়? এখনও জানা নেই। তবে যেটি জানা আছে তা হচ্ছে, ডেভলপাররা বিভিন্ন এআই মডেলকে আরও বেশি করে মানুষের মতো তৈরির চেষ্টা করছেন। যার থেকে ইঙ্গিত মেলে, ডেভলপাররা চাইছেন মানুষ এআইকে বিশ্বাস করুক ও এর ওপর নির্ভর হয়ে পড়ুক।
এদিকে, সমালোচকরা বলছেন, এআইয়ের কাছে কোনো চেতনাই নেই। তাই এআই ‘মিথ্যা বলছে’ এমন বলাটা ঠিক নয়। এমন কথা বলে এআইকে মানুষের মতো করে ভাবছি। তবে ডেভলপাররা ঠিক এভাবেই এআইকে মানুষের মতো শোনাতে ও কাজ করাতে চাচ্ছেন।
চ্যাটজিপিটির কাছে এর মিথ্যা বলা নিয়ে প্রশ্ন করা হলে সরাসরি সঠিক উত্তর দিতে পারেনি বা এ বিষয় থেকে পালাতে চেয়েছিল এটি। শুরুতে বটটি বলেছে, সবকিছু ঠিকঠাক চলছে। তবে পরিসংখ্যান দেখাতে বলার পরে চ্যাটজিপিটি স্বীকার করে নিয়েছে, পরিস্থিতি আসলে আরও খারাপ হচ্ছে।
স্কাই নিউজ লিখেছে, এআই নিয়ে কী ভাববেন তা ঠিক করার আগে পরখ করে নিন। এআই অসাধারণ এক হাতিয়ার। তবে এখনই এর ওপর পুরোপুরি বিশ্বাস করা ঠিক হবে না। সূত্র, বিডিনিউজ