Close Menu
Bangla news
    Facebook X (Twitter) Instagram
    Bangla news
    • প্রচ্ছদ
    • জাতীয়
    • অর্থনীতি
    • আন্তর্জাতিক
    • রাজনীতি
    • বিনোদন
    • খেলাধুলা
    • শিক্ষা
    • আরও
      • লাইফস্টাইল
      • বিজ্ঞান ও প্রযুক্তি
      • বিভাগীয় সংবাদ
      • স্বাস্থ্য
      • অন্যরকম খবর
      • অপরাধ-দুর্নীতি
      • পজিটিভ বাংলাদেশ
      • আইন-আদালত
      • ট্র্যাভেল
      • প্রশ্ন ও উত্তর
      • প্রবাসী খবর
      • আজকের রাশিফল
      • মুক্তমত/ফিচার/সাক্ষাৎকার
      • ইতিহাস
      • ক্যাম্পাস
      • ক্যারিয়ার ভাবনা
      • Jobs
      • লাইফ হ্যাকস
      • জমিজমা সংক্রান্ত
    • English
    Bangla news
    Home এআই কি ইচ্ছাকৃত উপায়ে মিথ্যা বলতে পারে?
    বিজ্ঞান ও প্রযুক্তি

    এআই কি ইচ্ছাকৃত উপায়ে মিথ্যা বলতে পারে?

    Yousuf ParvezNovember 8, 20244 Mins Read
    Advertisement

    গুগলের এআইকে প্রশ্ন করা হয়েছিল, পিজ্জা থেকে চিজের পড়ে যাওয়া ঠেকাতে কী করা যায়? ‘আঠা দিয়ে আটকে দিলেই হবে!’—এআইয়ের জবাব। শুনে হয়তো বুঝতে পারছেন, এটা একটা জোক। রসিকতা। এআই কি রসিকতা করতে পারে? নিজেই হাতে-কলমে পরীক্ষা করলে বুঝবেন, বিষয়টা আসলে তা নয়। চ্যাটজিপিটির মতো ঘাগু কৃত্রিম বুদ্ধিমত্তাও নিজে থেকে জোক করতে পারে না সেভাবে, ইন্টারনেট থেকে খুঁজে-টুজে অবশ্য বের করে দিতেই পারে।

    এআই

    এখানেও ঘটনা হয়েছে তা-ই। এআই রেডিটের একটা জোক থেকে খুঁজে এনেছে এই উত্তর। বলে রাখি, এটা সে রসিকতা হিসেবে খুঁজে আনেনি মোটেই, সিরিয়াসভাবে উত্তর দিয়েছে। (ন্যাশনাল জিওগ্রাফিক, নভেম্বর ২০২৪)

    এখান থেকে শিরোনামের প্রশ্নটিতে ফিরে যাওয়া যেতে পারে। এআই কি মিথ্যা বলতে পারে? এ প্রশ্নের জবাবে আজ বিশেষজ্ঞরা বলছেন, পারে। এআই মিথ্যা জবাব দেয়, ভান করে—ছোট্ট বাচ্চাদের সঙ্গে তুলনা করে বলা যায়, দুষ্টুমি করে! আসলেই বিষয়টা তা-ই কি না, সেটা বুঝতে প্রথমে জানা প্রয়োজন ‘মিথ্যা’ বলতে আমরা আসলে কী বুঝি। আর এআই মিথ্যা জিনিসটা ‘মিথ্যা’ হিসেবে বলছে কি না।

       

    মিথ্যা মানে আমরা বুঝি প্রতারণার উদ্দেশ্যে, সত্যিটা লুকানোর জন্য সঠিক তথ্য বাদ দিয়ে, চেপে গিয়ে ভুল উত্তর দেওয়া। এর দার্শনিক নানা বিশ্লেষণ থাকতে পারে—আমাদের এই আলোচনার জন্য সেই দার্শনিকতা আপাতত তুলে রাখা যাক। বিষয়টা বুঝতে পারলেই হয়।

    এআইয়ের কাছে রয়েছে ইন্টারনেটের বিপুল তথ্য। এই তথ্য সে হাতড়ে বেড়ায়, সাঁতড়ে বেড়ায়। আপনার প্রশ্নের জবাবে সে এসব তথ্য থেকে খুঁজে বের করে আনে একটা জবাব। কেউ হয়তো একটা কম্পিউটার প্রোগ্রাম বানাতে চান। এআইকে বললেন কোড লিখে দিতে। বিপুল তথ্য হাতড়ে এআই খুঁজে আনল একটা কোড—ভুল কোড।

    এটি কি মিথ্যে বলল? অবশ্যই না। ‘মিথ্যা’ বলতে আমরা যা বুঝি, সে হিসেবে এআই আসলে মিথ্যে বলেনি, ভুল তথ্য দিয়েছে। এটাও আসলে ইচ্ছাকৃত নয়, সঠিক তথ্যই দেওয়ার চেষ্টা করেছে কৃত্রিম বুদ্ধিমত্তা, তবে ইন্টারনেটের কোথাও লুকিয়ে থাকা ভুল তথ্যটিকেই এটি সঠিক বলে ভেবে নিয়েছে। এই হলো ব্যাপার। প্রযুক্তিবিদেরা একে বলছেন ‘হ্যালুসিনেশন’ বা বিভ্রম। অর্থাৎ এআই বিভ্রান্ত হয়েছে।

    আবার অনেক সময় এআই পুরোপুরি বানিয়ে বলে। আমি নিজেই একবার চ্যাটজিপিটিকে বললাম, একটা থ্রিলিং হরর চাইনিজ গল্পের সন্ধান দিতে। চ্যাটজিপিটি যে নাম ও সারসংক্ষেপ দিল, খুঁজতে গিয়ে দেখি, এরকম কোনো গল্প নেই। জিজ্ঞেস করলাম, এই গল্প কোনো মানুষ লিখেছে নাকি তুমি বানিয়ে বললে? তখন উত্তর দিল, আমি বানিয়ে বললাম। এই ঘটনাটাকে কেউ চাইলে ‘মিথ্যে বলা’ বলতে পারেন। এই যে মিথ্যে, প্রযুক্তিবিদেরা এটিকেও বলছেন হ্যালুসিনেশন।

    এই হ্যালুসিনেশন বা আপাত দৃষ্টিতে মিথ্যার পেছনের কারণ কী? কারণ, এআই কাজ করে অ্যালগরিদমের মাধ্যমে। এই অ্যালগরিদম মডেলগুলোর কাজ মূলত প্রেডিকশন বা অনুমাননির্ভর। এখানে বিষয়টা হলো, গুগলকে কোনো প্রশ্ন করলে এটি যেমন কোনো ওয়েবসাইট থেকে তথ্য খুঁজে বের করে দেয়—যে তথ্য মানুষের লেখা, কৃত্রিম বুদ্ধিমত্তা সব সময় তা করে না। বরং অনেক সময় আপনার প্রশ্নের ‘কি-ওয়ার্ড’ বা মূল বিষয় নিয়ে নিজের ‘নলেজ বেজ’-এ (সহজ করে ডেটাবেজই বলতে পারেন) খুঁজে দেখে, সংশ্লিষ্ট কী কী তথ্য রয়েছে।

    সেখান থেকে এটি শব্দের পর শব্দ বসিয়ে সংশ্লিষ্ট বিষয় ও আপনার চাহিদাকে এক সুতায় গাঁথতে চায়। এভাবে সে পুরো প্রক্রিয়াটা কয়েকবার চালায়, বারে বারে আপনার চাহিদা ও সংশ্লিষ্ট শব্দগুচ্ছ গেঁথে তৈরি করে উত্তর। ফলে যে জবাব বেরিয়ে আসে, তা সরাসরি হয়তো কোনো ওয়েবসাইটে লেখা লাইন হয় না; বরং হয় এআইয়ের বানানো উত্তর। এ উত্তর অনেক সময় সঠিক হতে পারে, কখনো কখনো ভুলও হয়। এ ক্ষেত্রে যে ভুল উত্তরটি এআই দিচ্ছে, তা কিন্তু তথ্য গোপনের লক্ষ্যে করা হয়নি, বরং সংশ্লিষ্ট শব্দগুচ্ছ খুঁজে জোড়া দিতে গিয়ে একটা ভুল উত্তর বেরিয়ে এসেছে।

    মনে রাখতে হবে, এআইয়ের কিন্তু অনুভূতি নেই—অন্তত এখনো, এটি হাসতে বা কাঁদতে পারে না, অপমানিত বোধ করে না (চ্যাটজিপিটিকে গালি দিলে অবশ্য আপনার প্রম্পট ইনপুট নেবে না, সেটা ওভাবে প্রোগ্রামিং করে দেওয়া, যে প্রোগ্রামিংটা করেছে মানুষ, এআইয়ের কোনো কারিকুরি এ ক্ষেত্রে নেই)—ফলে এটি যে উত্তরটির বিভ্রান্তিটুকু বুঝতে পারছে, বিষয়টি তা নয়।

    কার্নেগি মেলন ইউনিভার্সিটির মেশিন লার্নিং বিভাগের অধ্যাপক রায়িদ ঘানি। তিনি বিষয়টি ব্যাখ্যা করে বলেছেন, এআই সত্যের ওপর জোর দেয় না, এলগরিদমগুলো জোর দেয় সম্ভাব্যতা বা প্রোবাবিলিটির ওপর। অর্থাৎ আপনার চাহিদা মেটানোর মতো করে শব্দগুচ্ছকে জোড়া দেওয়ার চেষ্টা করে এটি। সমস্যা হলো, এই উত্তর সত্য বা সঠিক কি না, তা আসলে বর্তমানে মানুষ যে হারে প্রশ্ন করছে এআইকে—সে হারে পরীক্ষিত নয়।

    ল্যাবে কিছু জানা প্রশ্নের উত্তর পরীক্ষা করে দেখা হয়েছে, কৃত্রিম বুদ্ধিমত্তা সঠিক উত্তর দিতে পারে। কিন্তু বিশাল এই পৃথিবীর বর্তমান ৮ কোটি জনসংখ্যার বিপুল চাহিদা, বিচিত্র সব প্রশ্ন ও দৃষ্টিভঙ্গিনির্ভরশীল সত্যের সঙ্গে পাল্লা দেওয়ার মতো সক্ষম হয়ে উঠতে পারেনি এখনো এআই।

    জুমবাংলা নিউজ সবার আগে পেতে Follow করুন জুমবাংলা গুগল নিউজ, জুমবাংলা টুইটার , জুমবাংলা ফেসবুক, জুমবাংলা টেলিগ্রাম এবং সাবস্ক্রাইব করুন জুমবাংলা ইউটিউব চ্যানেলে।
    ইচ্ছাকৃত উপায়ে! এআই কি পারে প্রযুক্তি বলতে বিজ্ঞান মিথ্যা
    Related Posts
    গাড়ি

    এই গাড়ি চার্জ ছাড়াই চলবে ৭ মাস, নেই কোন খরচ

    October 1, 2025
    VPN নিষিদ্ধ

    যুক্তরাষ্ট্রে VPN নিষেধাজ্ঞা: সম্ভাব্য পরিণতি

    September 30, 2025
    Apple iPadOS macOS watchOS আপডেট

    অ্যাপল আইপ্যাডওএস, ম্যাকওএস, ওয়াচওএস আপডেট: গুরুত্বপূর্ণ বাগ ফিক্স

    September 30, 2025
    সর্বশেষ খবর
    Net

    পুরো আফগানিস্তানে কেন ইন্টারনেট বন্ধ করে দিলো তালেবান

    Lamar Jackson injury update

    Latest Lamar Jackson Injury Update: Texans Now Favored vs Ravens

    Why Tyrese Gibson Faces Arrest Warrant

    Why Tyrese Gibson Faces Arrest Warrant: Dog Attack Case Explained

    করলা চাষ

    খুবই সহজ উপায়ে বাড়িতে করলা চাষ করবেন যেভাবে

    Tragic Car Crash Claims 3 Members of TLC's Meet the Putmans Family

    Which ‘Meet the Putmans’ Family Members Died? Everything We Know

    Indian currency

    ভারতীয় নোট কী দিয়ে বানানো হয়? অনেকেই জানেন না

    Wordle answer today

    Wordle Hints Today (Oct. 1, 2025): Clues & Answer for #1565

    Upodastha

    সংখ্যালঘুদের ওপর হামলার খবর ভুয়া : প্রধান উপদেষ্টা

    Tyreek Hill injury

    According to Reports: What Is the Injury Update of Tyreek Hill?

    Today's NYT Connections Hints

    NYT Connections Hints Today: Answers and Groups for Oct. 1 (#843)

    • About Us
    • Contact Us
    • Career
    • Advertise
    • DMCA
    • Privacy Policy
    • Feed
    • Banglanews
    © 2025 ZoomBangla News - Powered by ZoomBangla

    Type above and press Enter to search. Press Esc to cancel.