
চার বছর বয়সী গাস ল্যামন্ট ২০২৪ সালের সেপ্টেম্বরের শেষ দিকে দক্ষিণ অস্ট্রেলিয়ায় নিখোঁজ হলে পুরো দেশ উদ্বিগ্ন হয়ে পড়ে। কিন্তু পুলিশ যখন মরিয়া হয়ে তাকে খুঁজছে, তখন সামাজিক মাধ্যমে ছড়িয়ে পড়ে একটি ছবি। যেখানে দেখা যায়, এক ব্যক্তি গাসকে কোলে নিয়ে একটি গাড়িতে তুলছেন, আর ছবিটির ক্যাপশন দেওয়া ‘এটি কি অপহরণের ঘটনা?’ ছবিটি এতটাই বাস্তব মনে হয়েছিল যে মুহূর্তেই তা ভাইরাল হয়ে যায়। কিন্তু সেই ছবি ছিল সম্পূর্ণ ভুয়া।
বিবিসি ভেরিফাই নিশ্চিত করে, ছবিটি এআই দিয়ে তৈরি। ছবিতে দেখা যায় বিকৃত আঙুল, অস্বাভাবিক অঙ্গপ্রত্যঙ্গ, আর ছায়ার অসামঞ্জস্য। এই ছবি অনুসন্ধানে সাহায্য করেনি, বরং বিভ্রান্তি ও গুজব ছড়িয়ে পরিস্থিতি আরও জটিল করেছে। এই হৃদয়বিদারক ঘটনাটি আজকের এক নির্মম বাস্তবতা তুলে ধরে, যেখানে কৃত্রিম বুদ্ধিমত্তা শুধু তথ্যই তৈরি করছে না, বাস্তবতাকেও তৈরি করছে নিজের মতো করে।
২০২৪ সালে কর্পোরেট জগতে এক চাঞ্চল্যকর প্রতারণার ঘটনা জানা যায়। হংকংয়ের একটি বহুজাতিক কোম্পানির অর্থ বিভাগে কর্মরত এক কর্মকর্তা একটি ভিডিও কনফারেন্স কলে অংশ নেন। সেখানে কোম্পানির যুক্তরাজ্যভিত্তিক প্রধান অর্থ – কর্মকর্তা (সিএফও) সহ আরও কয়েকজন উচ্চপদস্থ কর্মকর্তাকে দেখা যাচ্ছিল। তারা জরুরি ভিত্তিতে অর্থ স্থানান্তরের নির্দেশ দেন। কিন্তু পরে জানা যায় যে ঐ কলে উপস্থিত সবাই ছিলেন কৃত্রিম বুদ্ধিমত্তা দ্বার তৈরি ডিপফেক ভিডিও ও ভয়েস ক্লোন। ঐ কর্মকর্তাকে প্রতারণা করে প্রায় ২৫ মিলিয়ন মার্কিন ডলার স্থানান্তর করানো হয়।
এই ঘটনা দেখায়, কীভাবে জেনারেটিভ (এআই) প্রযুক্তির ব্যবহার করে মানুষের মুখ, কণ্ঠ ও আচরণ হুবহু অনুকরণ করা যায়। যা বৃহৎ আর্থিক প্রতারণাসহ নানা ধরনের প্রতারণা ঘটাতে পারে। এই ধরনের প্রতারণার কৌশল যেহেতু নতুন, প্রচলিত প্রায় সকল যাচাইকরণ পদ্ধতিই এর বিরুদ্ধে অকার্যকর। আর্থিক জগৎ ইতিমধ্যে এর কঠিন মূল্য দিচ্ছে।
হংকংয়ের ঘটনাটি বিচ্ছিন্ন নয়; সারা বিশ্বে এমন এআই চালিত প্রতারণা দ্রুত বাড়ছে। যুক্তরাজ্যে প্রধানমন্ত্রী ঋষি সুনাকের মুখ ব্যবহার করে বানানো ডিপফেক ভিডিও’র মাধ্যমে ভুয়া বিনিয়োগ বিজ্ঞাপন চালানো হয়েছে। যুক্তরাষ্ট্রে সিইওদের কন্ঠ নকল করে জাল অর্থ স্থানান্তরের নির্দেশ দেওয়া হয়েছে। প্রতারণাগুলো করা কঠিন। কিন্তু ক্ষতি শুধু টাকাপয়সায় সীমাবদ্ধ নয়। রাজনীতি, যা গণতন্ত্রের মেরুদণ্ড সেখানে এআই সবচেয়ে বিপজ্জনকভাবে ব্যবহৃত হচ্ছে।
২০২৪ সালের বাংলাদেশ নির্বাচনের আগে দ্য ডেইলি স্টার ও ডিসমিসল্যাব জানিয়েছিল যে রাজনৈতিক প্রচারে এআই-নির্মিত ভিডিও ও কৃত্রিম সংবাদ উপস্থাপকদের ব্যবহার বেড়েছে নাটকীয়ভাবে। ভারতের লোকসভা নির্বাচনের সময়ও এমন ডিপফেক ভিডিও ভাইরাল হয়, যা ভোটারদের বিভ্রান্ত করে। পশ্চিমা গণতন্ত্রও রেহাই পায়নি, ২০২৪ সালের আগস্টে ডোনাল্ড ট্রাম্প এক এআই তৈরি ছবি শেয়ার করেন, যাতে দেখা যায় গায়িকা টেইলর সুইফট তার প্রচারণাকে সমর্থন করছেন। এটি ছিল সম্পূর্ণ ভুয়া কিন্তু লক্ষ লক্ষ মানুষ তা দেখেছে এবং এর প্রভাব অবশ্যই রয়েছে।
এই বিভিন্ন খাতের উদাহরণগুলো একত্রে এক ভয়াবহ প্রবণতা নির্দেশ করে। এআইয়ের মাধ্যমে যে সকল ভুয়া তথ্য ছড়ানো হয় তা শুধু অর্থনৈতিক ক্ষতি নয় বরং জনমনে বিশ্বাসের সংকট তৈরি করতে পারে। আরেকটি বিপদজনক দিক হচ্ছে এই প্রযুক্তির গতি ও পরিসর। এআইয়ের সাহায্যে স্বল্প খরচে বিপুল পরিমাণ ভুয়া ভিডিও, অডিও বা পোস্ট তৈরি করে তা মুহূর্তেই ছড়ানো সম্ভব। যা সঠিক সময়ে নির্ভুলভাবে যাচাই করার কোন প্রক্রিয়া আমাদের কাছে এখনো নেই।
২০২৪ সালের এক বিশ্লেষণে দেখা যায়, মাত্র এক বছরে ডিপফেক প্রতারণা ৩ হাজার শতাংশ বেড়েছে। এই বৃদ্ধির হার থেকে বোঝা যায় যে ভুয়া তথ্য ছড়ানোর মাধ্যমে যারা প্রতারণার কাজে নিয়োজিত তাদের জন্য অত্যন্ত আকর্ষণীয়, সহজ এবং লাভজনক একটি মাধ্যম হিসেবে এআই স্থান করে নিয়েছে। এই প্রবণতার প্রভাব ভয়াবহ। যখন যেকোনো ছবি বা কণ্ঠস্বর ভুয়া হতে পারে, তখন মানুষ বাস্তবকেও সন্দেহ করতে শুরু করে। বিশেষজ্ঞরা একে বলেন ‘লায়ার’স ডিভিডেন্ট’ অর্থাৎ ভুয়া মিডিয়ার যুগে অসাধু ব্যক্তিরা আসল প্রমাণকেও ‘ডিপফেক’ বলে উড়িয়ে দিতে পারে। ফলাফল হলো যে সংবাদমাধ্যম, প্রতিষ্ঠান, এমনকি ব্যক্তিগত সম্পর্কের প্রতি বিশ্বাস ভেঙে পড়ে।
জনপ্রিয় প্রযুক্তি সাইট উইয়ার্ড সাম্প্রতিক এক অনুসন্ধানে দেখিয়েছে, রাশিয়ান প্রোপাগান্ডা নেটওয়ার্ক মার্কিন প্রেসিডেন্ট জো বাইডেনের বিকৃত এআই ভিডিও ছড়িয়ে নির্বাচনের আগে বিভাজন উসকে দিয়েছিল। একইভাবে, অ্যাসোসিয়েটেড প্রেস জানায়, মার্কিন যুক্তরাষ্ট্রের মেরিল্যান্ডে এক স্কুল কর্মকর্তা এআই ব্যবহার করে সহকর্মীর বর্ণবাদী ভূয়া অডিও তৈরি করেন, যা ব্যাপক ক্ষোভ সৃষ্টি করে।
এসব ঘটনা বিচ্ছিন্ন নয়, এগুলো ভবিষ্যতের সতর্কবার্তা। এআইয়ের মাধ্যমে ভুয়া তথ্য ছড়ানো এখন বাস্তব, ক্রমবর্ধমান এবং বহু-খাতজুড়ে প্রভাব বিস্তারকারী একটি হুমকি। এটি শুধুমাত্র প্রযুক্তিগত সমস্যা নয়; এটি বিশ্বাস, অর্থনীতি ও গণতন্ত্রের প্রশ্ন। এখনই প্রয়োজন নতুন যাচাই-ব্যবস্থা, আইনি কাঠামো ও সচেতনতা। যাতে সত্যকে প্রযুক্তির ভেতর হারিয়ে যেতে না দেওয়া হয়।