গুগলের এআইকে প্রশ্ন করা হয়েছিল, পিজ্জা থেকে চিজের পড়ে যাওয়া ঠেকাতে কী করা যায়? ‘আঠা দিয়ে আটকে দিলেই হবে!’—এআইয়ের জবাব। শুনে হয়তো বুঝতে পারছেন, এটা একটা জোক। রসিকতা। এআই কি রসিকতা করতে পারে? নিজেই হাতে-কলমে পরীক্ষা করলে বুঝবেন, বিষয়টা আসলে তা নয়। চ্যাটজিপিটির মতো ঘাগু কৃত্রিম বুদ্ধিমত্তাও নিজে থেকে জোক করতে পারে না সেভাবে, ইন্টারনেট থেকে খুঁজে-টুজে অবশ্য বের করে দিতেই পারে।
এখানেও ঘটনা হয়েছে তা-ই। এআই রেডিটের একটা জোক থেকে খুঁজে এনেছে এই উত্তর। বলে রাখি, এটা সে রসিকতা হিসেবে খুঁজে আনেনি মোটেই, সিরিয়াসভাবে উত্তর দিয়েছে। (ন্যাশনাল জিওগ্রাফিক, নভেম্বর ২০২৪)
এখান থেকে শিরোনামের প্রশ্নটিতে ফিরে যাওয়া যেতে পারে। এআই কি মিথ্যা বলতে পারে? এ প্রশ্নের জবাবে আজ বিশেষজ্ঞরা বলছেন, পারে। এআই মিথ্যা জবাব দেয়, ভান করে—ছোট্ট বাচ্চাদের সঙ্গে তুলনা করে বলা যায়, দুষ্টুমি করে! আসলেই বিষয়টা তা-ই কি না, সেটা বুঝতে প্রথমে জানা প্রয়োজন ‘মিথ্যা’ বলতে আমরা আসলে কী বুঝি। আর এআই মিথ্যা জিনিসটা ‘মিথ্যা’ হিসেবে বলছে কি না।
মিথ্যা মানে আমরা বুঝি প্রতারণার উদ্দেশ্যে, সত্যিটা লুকানোর জন্য সঠিক তথ্য বাদ দিয়ে, চেপে গিয়ে ভুল উত্তর দেওয়া। এর দার্শনিক নানা বিশ্লেষণ থাকতে পারে—আমাদের এই আলোচনার জন্য সেই দার্শনিকতা আপাতত তুলে রাখা যাক। বিষয়টা বুঝতে পারলেই হয়।
এআইয়ের কাছে রয়েছে ইন্টারনেটের বিপুল তথ্য। এই তথ্য সে হাতড়ে বেড়ায়, সাঁতড়ে বেড়ায়। আপনার প্রশ্নের জবাবে সে এসব তথ্য থেকে খুঁজে বের করে আনে একটা জবাব। কেউ হয়তো একটা কম্পিউটার প্রোগ্রাম বানাতে চান। এআইকে বললেন কোড লিখে দিতে। বিপুল তথ্য হাতড়ে এআই খুঁজে আনল একটা কোড—ভুল কোড।
এটি কি মিথ্যে বলল? অবশ্যই না। ‘মিথ্যা’ বলতে আমরা যা বুঝি, সে হিসেবে এআই আসলে মিথ্যে বলেনি, ভুল তথ্য দিয়েছে। এটাও আসলে ইচ্ছাকৃত নয়, সঠিক তথ্যই দেওয়ার চেষ্টা করেছে কৃত্রিম বুদ্ধিমত্তা, তবে ইন্টারনেটের কোথাও লুকিয়ে থাকা ভুল তথ্যটিকেই এটি সঠিক বলে ভেবে নিয়েছে। এই হলো ব্যাপার। প্রযুক্তিবিদেরা একে বলছেন ‘হ্যালুসিনেশন’ বা বিভ্রম। অর্থাৎ এআই বিভ্রান্ত হয়েছে।
আবার অনেক সময় এআই পুরোপুরি বানিয়ে বলে। আমি নিজেই একবার চ্যাটজিপিটিকে বললাম, একটা থ্রিলিং হরর চাইনিজ গল্পের সন্ধান দিতে। চ্যাটজিপিটি যে নাম ও সারসংক্ষেপ দিল, খুঁজতে গিয়ে দেখি, এরকম কোনো গল্প নেই। জিজ্ঞেস করলাম, এই গল্প কোনো মানুষ লিখেছে নাকি তুমি বানিয়ে বললে? তখন উত্তর দিল, আমি বানিয়ে বললাম। এই ঘটনাটাকে কেউ চাইলে ‘মিথ্যে বলা’ বলতে পারেন। এই যে মিথ্যে, প্রযুক্তিবিদেরা এটিকেও বলছেন হ্যালুসিনেশন।
এই হ্যালুসিনেশন বা আপাত দৃষ্টিতে মিথ্যার পেছনের কারণ কী? কারণ, এআই কাজ করে অ্যালগরিদমের মাধ্যমে। এই অ্যালগরিদম মডেলগুলোর কাজ মূলত প্রেডিকশন বা অনুমাননির্ভর। এখানে বিষয়টা হলো, গুগলকে কোনো প্রশ্ন করলে এটি যেমন কোনো ওয়েবসাইট থেকে তথ্য খুঁজে বের করে দেয়—যে তথ্য মানুষের লেখা, কৃত্রিম বুদ্ধিমত্তা সব সময় তা করে না। বরং অনেক সময় আপনার প্রশ্নের ‘কি-ওয়ার্ড’ বা মূল বিষয় নিয়ে নিজের ‘নলেজ বেজ’-এ (সহজ করে ডেটাবেজই বলতে পারেন) খুঁজে দেখে, সংশ্লিষ্ট কী কী তথ্য রয়েছে।
সেখান থেকে এটি শব্দের পর শব্দ বসিয়ে সংশ্লিষ্ট বিষয় ও আপনার চাহিদাকে এক সুতায় গাঁথতে চায়। এভাবে সে পুরো প্রক্রিয়াটা কয়েকবার চালায়, বারে বারে আপনার চাহিদা ও সংশ্লিষ্ট শব্দগুচ্ছ গেঁথে তৈরি করে উত্তর। ফলে যে জবাব বেরিয়ে আসে, তা সরাসরি হয়তো কোনো ওয়েবসাইটে লেখা লাইন হয় না; বরং হয় এআইয়ের বানানো উত্তর। এ উত্তর অনেক সময় সঠিক হতে পারে, কখনো কখনো ভুলও হয়। এ ক্ষেত্রে যে ভুল উত্তরটি এআই দিচ্ছে, তা কিন্তু তথ্য গোপনের লক্ষ্যে করা হয়নি, বরং সংশ্লিষ্ট শব্দগুচ্ছ খুঁজে জোড়া দিতে গিয়ে একটা ভুল উত্তর বেরিয়ে এসেছে।
মনে রাখতে হবে, এআইয়ের কিন্তু অনুভূতি নেই—অন্তত এখনো, এটি হাসতে বা কাঁদতে পারে না, অপমানিত বোধ করে না (চ্যাটজিপিটিকে গালি দিলে অবশ্য আপনার প্রম্পট ইনপুট নেবে না, সেটা ওভাবে প্রোগ্রামিং করে দেওয়া, যে প্রোগ্রামিংটা করেছে মানুষ, এআইয়ের কোনো কারিকুরি এ ক্ষেত্রে নেই)—ফলে এটি যে উত্তরটির বিভ্রান্তিটুকু বুঝতে পারছে, বিষয়টি তা নয়।
কার্নেগি মেলন ইউনিভার্সিটির মেশিন লার্নিং বিভাগের অধ্যাপক রায়িদ ঘানি। তিনি বিষয়টি ব্যাখ্যা করে বলেছেন, এআই সত্যের ওপর জোর দেয় না, এলগরিদমগুলো জোর দেয় সম্ভাব্যতা বা প্রোবাবিলিটির ওপর। অর্থাৎ আপনার চাহিদা মেটানোর মতো করে শব্দগুচ্ছকে জোড়া দেওয়ার চেষ্টা করে এটি। সমস্যা হলো, এই উত্তর সত্য বা সঠিক কি না, তা আসলে বর্তমানে মানুষ যে হারে প্রশ্ন করছে এআইকে—সে হারে পরীক্ষিত নয়।
ল্যাবে কিছু জানা প্রশ্নের উত্তর পরীক্ষা করে দেখা হয়েছে, কৃত্রিম বুদ্ধিমত্তা সঠিক উত্তর দিতে পারে। কিন্তু বিশাল এই পৃথিবীর বর্তমান ৮ কোটি জনসংখ্যার বিপুল চাহিদা, বিচিত্র সব প্রশ্ন ও দৃষ্টিভঙ্গিনির্ভরশীল সত্যের সঙ্গে পাল্লা দেওয়ার মতো সক্ষম হয়ে উঠতে পারেনি এখনো এআই।
জুমবাংলা নিউজ সবার আগে পেতে Follow করুন জুমবাংলা গুগল নিউজ, জুমবাংলা টুইটার , জুমবাংলা ফেসবুক, জুমবাংলা টেলিগ্রাম এবং সাবস্ক্রাইব করুন জুমবাংলা ইউটিউব চ্যানেলে।