Dark Mode Light Mode

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use
Follow Us
Follow Us
English English

এআইকে ব্যবহার করে বাড়ছে মিথ্যা ও গুজবের প্রবণতা

এআইকে ব্যবহার করে বাড়ছে মিথ্যা ও গুজবের প্রবণতা এআইকে ব্যবহার করে বাড়ছে মিথ্যা ও গুজবের প্রবণতা
এআইকে ব্যবহার করে বাড়ছে মিথ্যা ও গুজবের প্রবণতা


চার বছর বয়সী গাস ল্যামন্ট ২০২৪ সালের সেপ্টেম্বরের শেষ দিকে দক্ষিণ অস্ট্রেলিয়ায় নিখোঁজ হলে পুরো দেশ উদ্বিগ্ন হয়ে পড়ে। কিন্তু পুলিশ যখন মরিয়া হয়ে তাকে খুঁজছে, তখন সামাজিক মাধ্যমে ছড়িয়ে পড়ে একটি ছবি। যেখানে দেখা যায়, এক ব্যক্তি গাসকে কোলে নিয়ে একটি গাড়িতে তুলছেন, আর ছবিটির ক্যাপশন দেওয়া ‘এটি কি অপহরণের ঘটনা?’ ছবিটি এতটাই বাস্তব মনে হয়েছিল যে মুহূর্তেই তা ভাইরাল হয়ে যায়। কিন্তু সেই ছবি ছিল সম্পূর্ণ ভুয়া।

বিবিসি ভেরিফাই নিশ্চিত করে, ছবিটি এআই দিয়ে তৈরি। ছবিতে দেখা যায় বিকৃত আঙুল, অস্বাভাবিক অঙ্গপ্রত্যঙ্গ, আর ছায়ার অসামঞ্জস্য। এই ছবি অনুসন্ধানে সাহায্য করেনি, বরং বিভ্রান্তি ও গুজব ছড়িয়ে পরিস্থিতি আরও জটিল করেছে। এই হৃদয়বিদারক ঘটনাটি আজকের এক নির্মম বাস্তবতা তুলে ধরে, যেখানে কৃত্রিম বুদ্ধিমত্তা শুধু তথ্যই তৈরি করছে না, বাস্তবতাকেও তৈরি করছে নিজের মতো করে।

Advertisement

২০২৪ সালে কর্পোরেট জগতে এক চাঞ্চল্যকর প্রতারণার ঘটনা জানা যায়। হংকংয়ের একটি বহুজাতিক কোম্পানির অর্থ বিভাগে কর্মরত এক কর্মকর্তা একটি ভিডিও কনফারেন্স কলে অংশ নেন। সেখানে কোম্পানির যুক্তরাজ্যভিত্তিক প্রধান অর্থ – কর্মকর্তা (সিএফও) সহ আরও কয়েকজন উচ্চপদস্থ কর্মকর্তাকে দেখা যাচ্ছিল। তারা জরুরি ভিত্তিতে অর্থ স্থানান্তরের নির্দেশ দেন। কিন্তু পরে জানা যায় যে ঐ কলে উপস্থিত সবাই ছিলেন কৃত্রিম বুদ্ধিমত্তা দ্বার তৈরি ডিপফেক ভিডিও ও ভয়েস ক্লোন। ঐ কর্মকর্তাকে প্রতারণা করে প্রায় ২৫ মিলিয়ন মার্কিন ডলার স্থানান্তর করানো হয়।

এই ঘটনা দেখায়, কীভাবে জেনারেটিভ (এআই) প্রযুক্তির ব্যবহার করে মানুষের মুখ, কণ্ঠ ও আচরণ হুবহু অনুকরণ করা যায়। যা বৃহৎ আর্থিক প্রতারণাসহ নানা ধরনের প্রতারণা ঘটাতে পারে। এই ধরনের প্রতারণার কৌশল যেহেতু নতুন, প্রচলিত প্রায় সকল যাচাইকরণ পদ্ধতিই এর বিরুদ্ধে অকার্যকর। আর্থিক জগৎ ইতিমধ্যে এর কঠিন মূল্য দিচ্ছে।

হংকংয়ের ঘটনাটি বিচ্ছিন্ন নয়; সারা বিশ্বে এমন এআই চালিত প্রতারণা দ্রুত বাড়ছে। যুক্তরাজ্যে প্রধানমন্ত্রী ঋষি সুনাকের মুখ ব্যবহার করে বানানো ডিপফেক ভিডিও’র মাধ্যমে ভুয়া বিনিয়োগ বিজ্ঞাপন চালানো হয়েছে। যুক্তরাষ্ট্রে সিইওদের কন্ঠ নকল করে জাল অর্থ স্থানান্তরের নির্দেশ দেওয়া হয়েছে। প্রতারণাগুলো করা কঠিন। কিন্তু ক্ষতি শুধু টাকাপয়সায় সীমাবদ্ধ নয়। রাজনীতি, যা গণতন্ত্রের মেরুদণ্ড সেখানে এআই সবচেয়ে বিপজ্জনকভাবে ব্যবহৃত হচ্ছে।

২০২৪ সালের বাংলাদেশ নির্বাচনের আগে দ্য ডেইলি স্টার ও ডিসমিসল্যাব জানিয়েছিল যে রাজনৈতিক প্রচারে এআই-নির্মিত ভিডিও ও কৃত্রিম সংবাদ উপস্থাপকদের ব্যবহার বেড়েছে নাটকীয়ভাবে। ভারতের লোকসভা নির্বাচনের সময়ও এমন ডিপফেক ভিডিও ভাইরাল হয়, যা ভোটারদের বিভ্রান্ত করে। পশ্চিমা গণতন্ত্রও রেহাই পায়নি, ২০২৪ সালের আগস্টে ডোনাল্ড ট্রাম্প এক এআই তৈরি ছবি শেয়ার করেন, যাতে দেখা যায় গায়িকা টেইলর সুইফট তার প্রচারণাকে সমর্থন করছেন। এটি ছিল সম্পূর্ণ ভুয়া কিন্তু লক্ষ লক্ষ মানুষ তা দেখেছে এবং এর প্রভাব অবশ্যই রয়েছে।

এই বিভিন্ন খাতের উদাহরণগুলো একত্রে এক ভয়াবহ প্রবণতা নির্দেশ করে। এআইয়ের মাধ্যমে যে সকল ভুয়া তথ্য ছড়ানো হয় তা শুধু অর্থনৈতিক ক্ষতি নয় বরং জনমনে বিশ্বাসের সংকট তৈরি করতে পারে। আরেকটি বিপদজনক দিক হচ্ছে এই প্রযুক্তির গতি ও পরিসর। এআইয়ের সাহায্যে স্বল্প খরচে বিপুল পরিমাণ ভুয়া ভিডিও, অডিও বা পোস্ট তৈরি করে তা মুহূর্তেই ছড়ানো সম্ভব। যা সঠিক সময়ে নির্ভুলভাবে যাচাই করার কোন প্রক্রিয়া আমাদের কাছে এখনো নেই।

২০২৪ সালের এক বিশ্লেষণে দেখা যায়, মাত্র এক বছরে ডিপফেক প্রতারণা ৩ হাজার শতাংশ বেড়েছে। এই বৃদ্ধির হার থেকে বোঝা যায় যে ভুয়া তথ্য ছড়ানোর মাধ্যমে যারা প্রতারণার কাজে নিয়োজিত তাদের জন্য অত্যন্ত আকর্ষণীয়, সহজ এবং লাভজনক একটি মাধ্যম হিসেবে এআই স্থান করে নিয়েছে। এই প্রবণতার প্রভাব ভয়াবহ। যখন যেকোনো ছবি বা কণ্ঠস্বর ভুয়া হতে পারে, তখন মানুষ বাস্তবকেও সন্দেহ করতে শুরু করে। বিশেষজ্ঞরা একে বলেন ‘লায়ার’স ডিভিডেন্ট’ অর্থাৎ ভুয়া মিডিয়ার যুগে অসাধু ব্যক্তিরা আসল প্রমাণকেও ‘ডিপফেক’ বলে উড়িয়ে দিতে পারে। ফলাফল হলো যে সংবাদমাধ্যম, প্রতিষ্ঠান, এমনকি ব্যক্তিগত সম্পর্কের প্রতি বিশ্বাস ভেঙে পড়ে।

জনপ্রিয় প্রযুক্তি সাইট উইয়ার্ড সাম্প্রতিক এক অনুসন্ধানে দেখিয়েছে, রাশিয়ান প্রোপাগান্ডা নেটওয়ার্ক মার্কিন প্রেসিডেন্ট জো বাইডেনের বিকৃত এআই ভিডিও ছড়িয়ে নির্বাচনের আগে বিভাজন উসকে দিয়েছিল। একইভাবে, অ্যাসোসিয়েটেড প্রেস জানায়, মার্কিন যুক্তরাষ্ট্রের মেরিল্যান্ডে এক স্কুল কর্মকর্তা এআই ব্যবহার করে সহকর্মীর বর্ণবাদী ভূয়া অডিও তৈরি করেন, যা ব্যাপক ক্ষোভ সৃষ্টি করে।

এসব ঘটনা বিচ্ছিন্ন নয়, এগুলো ভবিষ্যতের সতর্কবার্তা। এআইয়ের মাধ্যমে ভুয়া তথ্য ছড়ানো এখন বাস্তব, ক্রমবর্ধমান এবং বহু-খাতজুড়ে প্রভাব বিস্তারকারী একটি হুমকি। এটি শুধুমাত্র প্রযুক্তিগত সমস্যা নয়; এটি বিশ্বাস, অর্থনীতি ও গণতন্ত্রের প্রশ্ন। এখনই প্রয়োজন নতুন যাচাই-ব্যবস্থা, আইনি কাঠামো ও সচেতনতা। যাতে সত্যকে প্রযুক্তির ভেতর হারিয়ে যেতে না দেওয়া হয়।





Source link

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use
Add a comment Add a comment

Leave a Reply

Your email address will not be published. Required fields are marked *

Previous Post
‘বয়স বাড়া একটি সুন্দর ব্যাপার’

‘বয়স বাড়া একটি সুন্দর ব্যাপার’

Next Post
বাংলাদেশের সিরিজ রক্ষার লড়াই আজ

বাংলাদেশের সিরিজ রক্ষার লড়াই আজ

Advertisement