বিজ্ঞান ও তথ্য প্রযুক্তি ডেস্ক:
বঙ্গবন্ধু স্টেডিয়ামে আবাহনী-মোহামেডানের খেলায় ক্রিস্টিয়ানো রোনাল্দো বল নিয়ে দৌড়াচ্ছেন, গোল দেওয়ার পর দু’হাত ছড়িয়ে উল্লাস করছেন- এমন ফেইক ভিডিও দেখে অবাক বা হতবাক হলেও হয়তো অখুশি হবেন না। কিন্তু প্রকাশ্য রাস্তায় কেউ কাউকে (কোনো গুরুত্বপূর্ণ ব্যক্তি) গুলি চালিয়ে হত্যা করছে- এমন ভিডিও নিশ্চয়ই উদ্বিগ্ন করবে আপনাকে। বড় কোনো বিপদের আশঙ্কা আপনাকে তাড়া করবে।
দুনিয়াজুড়ে এখন নতুন উদ্বেগের কারণ হয়ে দাঁড়িয়েছে এই ‘ডিপফেইক প্রযুক্তি’, যা দিয়ে খুব সহজেই তৈরি করা যায় উন্নতমানের ফেইক বা নকল ভিডিও। যে কোনো ব্যক্তিকে যে কোনো ভিডিওচিত্রের চরিত্র করে তোলা যায় এ প্রযুক্তি দিয়ে।
ফটোশপ প্রযুক্তির নকল ছবি শনাক্তের কাজ বর্তমানে সফলভাবে করা গেলেও কৃত্রিম বুদ্ধিমত্তার কারসাজিতে তৈরি ডিপফেইক ভিডিওর ক্ষেত্রে এখনও তা সম্ভব হয়নি। যদিও যুক্তরাষ্ট্রের তথ্যপ্রযুক্তিবিষয়ক ম্যাগাজিন ‘এমআইটি টেকনোলজি রিভিউ’ জানিয়েছে, সেখানকার প্রতিরক্ষা বিভাগ প্রথমবারের মতো ডিপফেইক শনাক্তের একটি সফটওয়্যার তৈরি করতে সমর্থ হয়েছে। কিন্তু এর ব্যবহার বা পরীক্ষা-নিরীক্ষা এখনও প্রতিরক্ষা বিভাগেই সীমিত রয়েছে।
গত বছরের নভেম্বরে যুক্তরাষ্ট্রের প্রেসিডেন্ট ডোনাল্ড ট্রাম্পের একটি ভিডিও ভাইরাল হয়। এতে দেখা যায়, ডোনাল্ড ট্রাম্প প্যারিস জলবায়ু চুক্তি নিয়ে তির্যক মন্তব্য করছেন। টুইটার এবং ফেসবুকে এটি লাখ লাখবার শেয়ার হয়। অসংখ্য মানুষ তাদের মন্তব্যে ট্রাম্পের সমালোচনা করতে থাকেন। কয়েকদিন পর ভিডিওটির আপলোডার নিজেই জানান, এটা ফেইক ভিডিও এবং নিছক মজা করার জন্যই ডিপফেইক প্রযুক্তির মাধ্যমে এটা তৈরি করা হয়েছে। অথচ কোনো পেশাদার মানুষের পক্ষেও অসংখ্যবার ভিডিওটি দেখে এটিকে নকল বলা সম্ভব নয়। অথচ সত্য হচ্ছে, অন্য একজনের কথা বলার দৃশ্য ধারণ করে আর্টিফিশিয়াল ইন্টেলিজেন্স এবং ডিপ লার্নিং প্রযুক্তির মাধ্যমে তা তৈরি করা হয়েছে। এ ধরনের শত শত ফেইক ভিডিও এখন ইউটিউব, ডেইলি মোশন, ফেসবুক, টুইটারসহ বিভিন্ন সামাজিক যোগাযোগ মাধ্যমে দেখা যাচ্ছে।
বিপজ্জনক হয়ে উঠছে প্রযুক্তি: ২০১৭ সালের আগস্টে জনপ্রিয় সামাজিক যোগাযোগ মাধ্যম রেডিটের এক ব্যবহারকারী ‘ডিপফেইক’ হলিউডের কয়েকজন বিখ্যাত তারকার পর্নো ভিডিও আপলোড করেন। অবশ্য তিনি সঙ্গে সঙ্গেই জানান, এগুলো কৃত্রিম বৃদ্ধিমত্তা প্রযুক্তির মাধ্যমে তৈরি করা ভুয়া ভিডিও। কাউকে বিভ্রান্ত না হওয়ার অনুরোধও করেন তিনি। কিন্তু ততক্ষণে যা হওয়ার হয়ে গেছে। ভুয়া ভিডিওগুলো ভাইরাল হতে শুরু করেছে অন্য সামাজিক যোগাযোগ মাধ্যমগুলোতেও। এভাবেই যাত্রা শুরু করে ‘ডিপফেইক’ ভিডিও।
তথ্যপ্রযুক্তি গবেষকরা অবশ্য আগে থেকেই বলে আসছেন, কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি মানুষের জীবনযাত্রাকে সহজ করার পাশাপাশি ভয়ঙ্কর কিছু বিপদ নিয়ে আসতে পারে। বিশেষজ্ঞরা বলছেন, ডিপফেইক ভিডিও তৈরি করা হয় মূলত আর্টিফিশিয়াল ইন্টেলিজেন্স এবং ডিপ লার্নিং প্রযুক্তির সমন্বয়ে। এভাবে ফেইক ভিডিও তৈরির উপযোগী কয়েক ধরনের সফটওয়্যার এখন অনলাইনেও পাওয়া যাচ্ছে। ব্যক্তিগত সাধারণ মানের কম্পিউটারেও এগুলো সহজেই ব্যবহার করা যায়।
তথ্যপ্রযুক্তিবিষয়ক খ্যাতনামা লেখক অস্কার স্কুয়টার্জ সম্প্রতি ‘দ্য গার্ডিয়ানে’ প্রকাশিত নিবন্ধে লিখেছেন, ডিপফেইক ভিডিও এতই ভয়ঙ্কর হতে পারে যে, তা যে কোনো মুহূর্তে যে কারও মৃত্যুর কারণও হতে পারে। কারণ এসব ভিডিওতে একেবারেই আসলের মতো করে যে কারও ছবি ও কণ্ঠস্বর ব্যবহার করা যায়। ফলে এ ধরনের ভিডিও বানিয়ে কাউকে সামাজিকভাবে হেয় করে তাকে আত্মহত্যার দিকে ঠেলে দেওয়া কিংবা প্রতিহিংসার বশে তাকে বড় কোনো আইনি ঝামেলায় ফেলা যেতে পারে।
অস্কার স্কুয়টার্জ লিখেছেন, কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি মানুষের জন্য এখন অপরিহার্য। কিন্তু প্রত্যেকটি প্রযুক্তি যেমন তার নিজের বিপরীতে কিছু বড় বিপদও নিয়ে এসেছে, কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির ক্ষেত্রেও তাই ঘটেছে। তথ্যপ্রযুক্তি হিসেবে ডিপফেইক এ পর্যন্ত ধেয়ে আসা সবচেয়ে বড় বিপদের নাম।
ডিপফেইক কি শনাক্ত করা সম্ভব?: আগে ছবির কারসাজি হতো ফটোশপে। তবে তা ধরতে মানুষের খুব বেশি সময় লাগেনি। কিন্তু ডিপফেইক ভিডিওর সফটওয়্যার মানুষের ছবি, কণ্ঠস্বর, অঙ্গভঙ্গি ও নড়াচড়া এত নিখুঁতভাবে করতে পারে যে, তা চট করে মিথ্যা বা ভুয়া প্রমাণ করা কঠিন।
এদিকে যুক্তরাষ্ট্রের তথ্যপ্রযুক্তিবিষয়ক ম্যাগাজিন এমআইটি টেকনোলজি রিভিউর সাম্প্রতিক এক প্রতিবেদনে বলা হয়েছে, যুক্তরাষ্ট্রের প্রতিরক্ষা বিভাগ প্রথমবারের মতো একটি সফটওয়্যার টুলস তৈরি করতে পেরেছে, যেটি ভিডিওটি অন্য কারও ধারণ করা কি-না বা ভিডিওটি নিখুঁতভাবে অন্য কোনো চলমান চিত্রের ওপর বসানো হয়েছে কি-না তা শনাক্ত করতে পারবে। তবে এই সফটওয়্যারের ব্যবহার যুক্তরাষ্ট্রের প্রতিরক্ষা বিভাগেই সীমিত রয়েছে এবং তা এখনও বাইরে কোথাও ব্যবহূত হয়নি।
অস্কার স্কুয়টার্জ তার নিবন্ধের উপসংহারে যে কথা বলেছেন, সে কথাকেই অনুসরণ করে বলা যায়, সম্ভাবনার জায়গাটি হচ্ছে, এখন পর্যন্ত প্রযুক্তি মানুষের নিয়ন্ত্রণেই আছে। প্রযুক্তির বিপজ্জনক অংশটি যদি মানুষের হাতে হয়, তাহলে এর প্রতিকারও মানুষই করবে। অতএব, আশা করা যায়, ডিপফেইক ভিডিও শনাক্তের প্রযুক্তিও তৈরি হবে অচিরেই।