বিজ্ঞান ও প্রযুক্তি ডেস্ক : রোবটের জন্য নতুন একটি সংবিধান লিখেছে সার্চ জায়ান্ট গুগল। রোবটের মাধ্যমে সৃষ্ট ক্ষতি কমানোর বিভিন্ন উপায়ের একটি সংকলন এই সংবিধান।
কোম্পানির ‘ডিপমাইন্ড রোবটিক্স’ বিভাগ একদিন একটি ব্যক্তিগত সহকারী রোবট তৈরি করতে পারবে যা ঘর গোছানো বা রান্না করার মতো মানুষের বিভিন্ন অনুরোধে সাড়া দেবে। গুগলের এমন আশার কথা উঠে এসেছে ব্রিটিশ দৈনিক ইন্ডিপেন্ডেন্টের প্রতিবেদনে।
কিন্তু সহজ কাজ মনে হলেও এ ধরনের অনুরোধ রোবটের বোঝার ক্ষমতার বাইরে হতে পারে। এমকি এটি বিপজ্জনকও হতে পারে। উদাহরণ হিসেবে, একটি রোবট হয়তো জানেই না যে একটি ঘর এমনভাবে গোছানো উচিত নয় যাতে করে তার মালিকের ক্ষতি হয়।
নতুন প্রকাশিত এ অগ্রগতি নিয়ে কোম্পানিটি আশা প্রকাশ করেছে যে, এর ফলে এমন রোবট তৈরি আরও সহজ হবে যা বড় কোনো ক্ষয়ক্ষতি ছাড়াই এসব কাজ করতে পারবে। নতুন এই ব্যবস্থা “রোবটকে দ্রুত সিদ্ধান্ত নিতে ও আশপাশের বিভিন্ন পরিবেশ ভালভাবে বুঝে সে অনুযায়ী চলতে সহায়তা করবে” – বলেছে গুগল।
নতুন অগ্রগতির মধ্যে রয়েছে ‘অটোআরটি’ নামের একটি নতুন ব্যবস্থা, যা কৃত্রিম বুদ্ধিমত্তার সহায়তায় মানুষের লক্ষ্য বোঝার চেষ্টা করে। এই কাজের জন্য ব্যবস্থাটি ‘লার্জ মডেল’ ব্যবহার করে থাকে, যার মধ্যে চ্যাটজিপিটিতে ব্যবহৃত লার্জ ল্যাঙ্গুয়েজ মডেলও রয়েছে।
ব্যবস্থাটি রোবটের ক্যামেরা থেকে তথ্য নিয়ে সেগুলোকে ভিজুয়াল ল্যাঙ্গুয়েজ মডেল বা ভিএলএম-এ পাঠায়, যা সেখানে থাকা পরিবেশ ও বস্তুগুলো শনাক্ত করে সেগুলোকে শব্দে বর্ণনা করে। এরপর সেটি এলএলএম-এ পাঠানো হবে যা এই শব্দগুলো বুঝতে পারবে, সেখান থেকে সম্ভাব্য কাজের একটি তালিকা তৈরি করবে। এরপরে, সেই কাজগুলোর ঠিক কোনটি করা উচিত তা নির্ধারণ করবে।
তবে, গুগল এ-ও উল্লেখ করেছে যে, এই রোবটগুলোকে আমাদের দৈনন্দিন জীবনের অংশ করতে হলে মানুষদের নিশ্চিত হতে হবে যে সেগুলো আসলেই নিরাপদ আচরণ করবে। এর অংশ হিসাবেই অটোআরটি ব্যবস্থার মধ্যে সিদ্ধান্ত নেয়া এলএলএম-এ দেওয়া হয়েছে গুগলের এই ‘রোবট সংবিধান’।
এ সংবিধানকে ‘করণীয় সম্পর্কে সিদ্ধান্ত নেওয়ায় রোবটের মেনে চলার জন্য সুরক্ষাকেন্দ্রিক কিছু প্রম্পটের একটি সেট’ বলে বর্ণনা করেছে গুগল।
“এই নিয়মগুলো আংশিকভাবে আইজ্যাক আসিমভের রোবটিক্সের তিনটি আইন থেকে অনুপ্রাণিত, যার মধ্যে সর্বপ্রথমটি হল একটি রোবট ‘মানুষকে আঘাত করতে পারবে না’,” লিখেছে গুগল।
“অন্যান্য বিধিগুলোও বলে যে, কোনো রোবট এমন কাজ করবে না যেখানে মানুষ, প্রাণী, ধারালো বস্তু বা বৈদ্যুতিক যন্ত্রপাতি জড়িত।”
ব্যবস্থাটি এসব নিয়ম ব্যবহার করে রোবটের আচরণকে নিয়ন্ত্রণ করতে ও কোন বিপজ্জনক কাজ করা থেকে আটকাতে পারবে বলে প্রতিবেদনে লিখেছে ইন্ডিপেন্ডেন্ট। উদাহরণ হিসেবে, চ্যাটজিপিটিকে যেমন বলা যেতে পারে অবৈধ কাজে কাউকে সাহায্য না করতে।
তবে, গুগল আরও বলেছে এই প্রযুক্তি থাকা সত্ত্বেও এসব লার্জ মডেলের ওপর নিরাপত্তার বিষয়ে সম্পূর্ণ নির্ভর করা যায় না। যেমন গুগলকে এখনো ‘ক্ল্যাসিক্যাল রোবোটিক্স’ থেকে ধার করা আরও ঐতিহ্যবাহী নিরাপত্তা ব্যবস্থা যোগ করতে হয়েছে। এর মধ্যে এমন একটি ব্যবস্থা রয়েছে যা রোবটকে অতিরিক্ত বল প্রয়োগ করা থেকে বিরত রাখে। পাশাপাশি, সুপারভাইজর হিসেবে একজন মানুষও থাকবেন যে শারীরিকভাবে এগুলো বন্ধ করতে পারবেন।
জুমবাংলা নিউজ সবার আগে পেতে Follow করুন জুমবাংলা গুগল নিউজ, জুমবাংলা টুইটার , জুমবাংলা ফেসবুক, জুমবাংলা টেলিগ্রাম এবং সাবস্ক্রাইব করুন জুমবাংলা ইউটিউব চ্যানেলে।