আজকাল ওয়েবডেস্ক: চ্যাটজিপিটির কথা শুনে একেবারে হাসপাতালে। এক ব্যক্তি চ্যাটজিপিটি-র দেওয়া খাদ্যসংক্রান্ত পরামর্শ অনুসরণ করে প্রায় মৃত্যুর সামনে পৌঁছে যান। ডাক্তারদের মতে এটি সম্ভবত এআই-সম্পর্কিত ব্রোমাইড বিষক্রিয়ার প্রথম ঘটনার উদাহরণ হতে পারে।
ঘটনাটি University of Washington-এর চিকিৎসকদের দ্বারা Annals of Internal Medicine: Clinical Cases জার্নালে প্রকাশিত হয়েছে। সেখানে বলা হয়েছে, ওই ব্যক্তি তিন মাস ধরে সোডিয়াম ব্রোমাইড গ্রহণ করেছিলেন। তার বিশ্বাস ছিল যে এটি খাদ্যে ক্লোরাইডের একটি নিরাপদ বিকল্প। এই পরামর্শ তিনি চ্যাটজিপিটি থেকে পেয়েছিলেন, যা তাকে এর ঝুঁকির বিষয়ে সতর্ক করেনি।
আরও পড়ুন: বোতলের ঢাকনার রং বলে দেবে কোনটি আপনার পক্ষে স্বাস্থ্যকর, জেনে নিন বিশেষজ্ঞ মত
কী এই ব্রোমাইড?
ব্রোমাইড যৌগ আগে উদ্বেগ ও অনিদ্রার ওষুধে ব্যবহৃত হত। কিন্তু গভীর স্বাস্থ্যঝুঁকির কারণে কয়েক দশক আগে তা বন্ধ করে দেওয়া হয়। বর্তমানে ব্রোমাইড শুধুমাত্র পশু চিকিৎসা ও শিল্পক্ষেত্রে ব্যবহৃত হয়। এখনকার দিনে এই বিষক্রিয়া, যাকে "ব্রোমিজম" বলা হয়, অত্যন্ত বিরল।
কীভাবে ধরা পড়ে বিষক্রিয়া?
ওই ব্যক্তি প্রথমে ইমার্জেন্সি রুমে যান এবং জানান তার প্রতিবেশী তাকে বিষ দিচ্ছেন। যদিও তার কিছু প্রাথমিক স্বাস্থ্য স্বাভাবিক ছিল। এরপরই তার মানসিক অবস্থার দ্রুত অবনতি ঘটতে থাকে এবং সম্পূর্ণ সাইকোটিক পর্বে পৌঁছান। ফলে ডাক্তাররা তাকে মানসিক চিকিৎসা শুরু করেন। তাকে ফ্লুইডস ও অ্যান্টিসাইকোটিক ওষুধ দেওয়া হয়। কয়েকদিন পর তার লক্ষণগুলো ধীরে ধীরে উন্নত হয়। তখনই সে জানায়, সে চ্যাটজিপিটির পরামর্শে ব্রোমাইড খাচ্ছিল। সে টেবিল সল্টে থাকা ক্লোরাইড এড়াতে চাইছিল।
চ্যাটজিপিটি নাকি তাকে জানায় যে, ব্রোমাইড একটি নিরাপদ বিকল্প। যদিও এটি মানুষের জন্য অত্যন্ত বিপজ্জনক। চিকিৎসকরা যদিও তার আসল চ্যাট লগ পাননি। তারা পরে একই প্রশ্ন চ্যাটজিপিটিকে জিজ্ঞাসা করলে দেখা যায়, AI সত্যিই ব্রোমাইডকে বিকল্প হিসেবে উল্লেখ করে কোনও সতর্কতা ছাড়াই।

ডাক্তাররা বলেন, AI টুল যেমন চ্যাটজিপিটি বৈজ্ঞানিক তথ্য সাধারণ মানুষের কাছে সহজলভ্য করতে পারে। তবে তা প্রফেশনাল চিকিৎসা পরামর্শের বিকল্প হতে পারে না। এই ঘটনার মতো, কখনো কখনো AI বিপজ্জনক ও ভুল নির্দেশনাও দিতে পারে।
এরপর ওই ব্যক্তি সম্পূর্ণ সুস্থ হয়ে ওঠেন। তিন সপ্তাহ হাসপাতালে থাকার পর ছাড়া পান। ফলো-আপ ভিজিটেও তিনি স্থিতিশীল ছিলেন। এই ঘটনা দেখায়, AI থেকে প্রাপ্ত পরামর্শ চেক না করে অনুসরণ করা বিপজ্জনক হতে পারে। চ্যাটজিপিটি বা অন্যান্য AI টুল ব্যবহার করার সময়, বিশেষ করে স্বাস্থ্যের ক্ষেত্রে, পেশাদার চিকিৎসকের পরামর্শ নেওয়াই নিরাপদ।
একটি ভুল পরামর্শ আপনার জীবনের ঝুঁকি ডেকে আনতে পারে। তবে এমন ধরণের ঘটনা এর আগেও ঘটেছে। সেখানেও এআই-কে প্রশ্ন করে যে উত্তর মিলেছে তাকে মেনে সমস্যায় পড়েছেন বহু ব্যক্তি। তাই এআই-কে নিজের কাজে ব্যবহার করুন। তাকে মেনে নিয়েই সব কাজ করতে হবে এমনটা নয়। সেখানে নিজের বুদ্ধি দিয়েই সব বিচার করবেন।
