আজকাল ওয়েবডেস্ক: কৃত্রিম বুদ্ধিমত্তা বা এআই এখন ভাষা লেখা, ছবি তৈরি, ট্রেড অটোমেশন থেকে শুরু করে স্বাস্থ্য গবেষণা পর্যন্ত অসংখ্য ক্ষেত্রে ব্যবহৃত হচ্ছে। কিন্তু একটি বিষয় বহুবার নজরে এসেছে এআই কখনও কখনও খুবই সহজ গাণিতিক সমস্যায় ভুল করে ফেলছে। বিশেষ করে যখন প্রশ্নের পাশে বিভ্রান্তিকর তথ্য যোগ করা হয়। কেন এমন হয়? প্রযুক্তিগতভাবে শক্তিশালী হলেও গণিতের সরল ধাপে ভুল হওয়ার পেছনে বেশ কয়েকটি কারণ আছে।


অধিকাংশ ভাষাভিত্তিক এআই মডেল গভীর গাণিতিক যুক্তির বদলে ‘প্যাটার্ন প্রেডিকশন’ বা ভাষার সম্ভাব্য ধারাবাহিকতা তৈরিতে বেশি সফল। এরা মূলত কোটি কোটি লেখা, কোড, নিবন্ধ ও কথোপকথন থেকে শেখে। ফলে সরাসরি গণিত করার বদলে মানুষের লেখা গণিত-সংক্রান্ত বাক্যের ধরণ অনুকরণ করে। 


মানুষের মতো এআই স্মৃতি বা ‘ওয়ার্কিং মেমরি’ ব্যবহার করে না। আমরা যখন যোগ-বিয়োগ করি, মাথায় একাধিক ধাপ ধরে রাখি সেটা করতে পারছে না এআই। ফলে বহু ধাপের সমস্যা এবং অতিরিক্ত বাক্য থাকলে এআই সহজেই গোলমাল করে ফেলে।


যখন প্রশ্নে বিভ্রান্তিকর প্রসঙ্গ থাকে—যেমন গল্প, তুলনা, বা অপ্রাসঙ্গিক তথ্য তখন এআই অনেক সময় ভাষার অংশটিকেই বেশি গুরুত্ব দেয়, গণিতের নয়। মানুষ সহজেই অপ্রয়োজনীয় বাক্য বাদ দিয়ে বলে ৩টি, কিন্তু এআই মাঝে মাঝে যুক্তি খুঁজতে গিয়ে ভুল উত্তর দেয়।


এখানে আরও একটি গুরুত্বপূর্ণ দিক হল ট্রেনিং ডেটা। ভাষা মডেল যত বেশি কোড, গণিত ডেটায় প্রশিক্ষিত হয়, তত কম ভুল করে। তাই সাম্প্রতিক সময়ে বহু মডেল আলাদা গণিত-ইঞ্জিন, কোডিং লেয়ার যুক্ত করছে। এটি সংখ্যাগত ধাপ নিশ্চিত করে, মানুষের ক্যালকুলেটরের মতো।


তবুও গণিতের ভুল মানেই ক্ষমতার সীমা নয়। বরং বিষয়টি এআইয়ের ডিজাইনের প্রকৃতি। এটি মূলত ভাষা ও জ্ঞান ভিত্তিক পূর্বাভাসকারী। সেই কাঠামোর উপর সঠিক গণনা যোগ করাই এখন এই গবেষণার বড় চ্যালেঞ্জ। ভবিষ্যতে এআই আরও উন্নত হলে সেখান থেকে হয়তো সে সমস্ত গণিতের সঠিক উত্তর দিতে সক্ষম হবে। 


তবে বিষয়টি নিয়ে বিশ্বজুড়ে হাসির খোরাক হয়েছে এআই। অনেকেই মনে করছেন নিজেকে সেরা প্রমাণ করতে গিয়েই এই ধরণের সমস্যার সামনে পড়েছে এআই। মানুষের সঙ্গে বারে বারে তার তুলনা করা হলেও এআই মানুষের মতো বুদ্ধিদীপ্ত নয়। ফলে সেখান থেকে তার সেই ক্ষমতা নেই। নিজে স্বয়ংক্রিয় নয় বলে এআইকে ব্যবহার করছে মানুষ। ফলে তার ক্ষমতাও সীমাবদ্ধ।