
আজকের ডিজিটাল দুনিয়ায় আমরা অনেক সুবিধা পাচ্ছি। তবে এর সাথে সাথে নতুন সমস্যাও তৈরি হচ্ছে। এর মধ্যে অন্যতম হলো ডিপফেক ভিডিও। সাম্প্রতিক সময়ে এ ধরনের ভিডিও ব্যবহার করে বিভিন্ন প্রতারণার ঘটনা বাড়ছে। ডিপফেক ভিডিও হচ্ছে একধরনের কৃত্রিমভাবে তৈরি ভিডিও যেখানে কোনো ব্যক্তির মুখমণ্ডল, কণ্ঠস্বর বা শারীরিক অঙ্গভঙ্গিকে অত্যন্ত নিখুঁতভাবে অন্য কারও ওপর বসানো হয়। ফলে দেখা যায়, আসল ব্যক্তি না হয়েও ভিডিওতে সে কথা বলছে বা কাজ করছে। সহজভাবে বললে, ডিপফেক হলো এমন এক প্রযুক্তি যেখানে ডিপ লার্নিং নামক কৃত্রিম বুদ্ধিমত্তা পদ্ধতি ব্যবহার করে মিথ্যা অথচ বাস্তবের মতো ভিডিও বানানো হয়।
ডিপফেক ভিডিওর আর্থিক বাজার এবং বৈশ্বিক অপরাধের ক্ষেত্রে বেশ কিছু উদ্বেগজনক তথ্য রয়েছে। কৃত্রিম বুদ্ধিমত্তা নির্ভর এই প্রযুক্তি ক্রমশ উন্নত হওয়ার সাথে সাথে এর অপব্যবহারও বাড়ছে। যার ফলে বিশ্বব্যাপী আর্থিক প্রতিষ্ঠান এবং সাধারণ মানুষ ক্ষতির সম্মুখীন হচ্ছে। ডিপফেক সম্পর্কিত জালিয়াতির কারণে বিশ্বজুড়ে আর্থিক ক্ষতির পরিমাণ দ্রুত বৃদ্ধি পাচ্ছে। এক প্রতিবেদনে বলা হয়েছে, ২০২৭ সালের মধ্যে শুধু যুক্তরাষ্ট্রেই জেনারেটিভ এআই (যার মধ্যে ডিপফেক একটি অংশ) চালিত জালিয়াতির ক্ষতি ৪০ বিলিয়ন ডলারে পৌঁছাতে পারে। একটি বহুজাতিক কোম্পানির হংকং অফিসে ডিপফেক ভিডিও কনফারেন্স কলের মাধ্যমে প্রধান আর্থিক কর্মকর্তার ছদ্মবেশ ব্যবহার করে ২৫.৬ মিলিয়ন ডলার হাতিয়ে নেয়ার ঘটনার কথা জানা যায়। ক্রিপ্টোকারেন্সি সেক্টরে ডিপফেক জালিয়াতির ঘটনা দ্রুত বাড়ছে। ২০২৩ থেকে ২০২৪ সালের মধ্যে ডিপফেক সম্পর্কিত ঘটনার বৃদ্ধি হয়েছে ৬৫৪ শতাংশ এবং ২০২৩ সালে শনাক্ত হওয়া মোট ডিপফেক জালিয়াতির ৮৮ শতাংশ এই সেক্টরের সাথে সম্পর্কিত ছিল।
ডিপফেক ভিডিও তৈরিতে উন্নতমানের সফটওয়্যার ও মেশিন লার্নিং অ্যালগরিদম ব্যবহার করা হয়। আজকাল এই প্রযুক্তি এত সহজ হয়ে গেছে যে মোবাইল অ্যাপ দিয়েও সাধারণ মানের ডিপফেক ভিডিও বানানো সম্ভব। ফলে এর অপব্যবহার বাড়ছে আশঙ্কাজনক হারে। ডিপফেক প্রযুক্তি এখন মূলত প্রতারণা ও অপরাধমূলক কাজে বেশি ব্যবহার হচ্ছে। অনেক সময় ডিপফেক ব্যবহার করে কোম্পানির সিইও বা কোনো উচ্চপদস্থ কর্মকর্তার কণ্ঠস্বর নকল করা হয়। এরপর কর্মচারীদের ভুল নির্দেশনা দিয়ে টাকা অন্যত্র পাঠানো হয়। এভাবে আন্তর্জাতিক পর্যায়ে কোটি কোটি টাকা হাতিয়ে নেওয়ার ঘটনা ঘটেছে।
নির্বাচনের সময় ভুয়া ভিডিও বানিয়ে কোনো প্রার্থীকে বিতর্কিত বক্তব্য দিতে দেখা যায়। এতে সাধারণ মানুষ বিভ্রান্ত হয় এবং ভোটারদের ওপর নেতিবাচক প্রভাব পড়ে। কারও ব্যক্তিগত ছবি বা ভিডিওকে ডিপফেক করে অশ্লীল কনটেন্ট বানিয়ে ব্ল্যাকমেইল করা হচ্ছে। এতে ভুক্তভোগীরা সামাজিকভাবে লাঞ্ছিত হচ্ছেন।
ডিপফেক প্রযুক্তি একদিকে যেমন বিনোদন, চলচ্চিত্র বা শিক্ষায় ইতিবাচক কাজে ব্যবহার করা যায়, তেমনি অন্যদিকে এটি বড় ধরনের হুমকিও তৈরি করছে। বিশেষ করে প্রতারণা, গুজব ও ব্ল্যাকমেইলে এর ব্যবহার সমাজ ও অর্থনীতিকে ক্ষতিগ্রস্ত করছে। তাই এ ধরনের ভিডিও শনাক্ত করার প্রযুক্তি আরও উন্নত করতে হবে এবং ব্যবহারকারীদের সচেতন করতে হবে। পাশাপাশি আইনগত পদক্ষেপও জরুরি, যাতে ডিপফেক ব্যবহার করে প্রতারণা রোধ করা যায়।
লেখক: প্রযুক্তি গবেষক।