বিজ্ঞান ও প্রযুক্তি

এআই ব্যবহার করে অশ্লীল ছবি বানাচ্ছে শিশুরা

এআই ব্যবহার করে অশ্লীল ছবি বানাচ্ছে শিশুরা

কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তি ব্যবহার করে শিশুরা সমবয়সীদের নিয়ে কুরুচিপূর্ণ বা অশ্লীল ছবি বানাচ্ছে বলে জানিয়েছে যুক্তরাজ্যের এক দাতব্য সংস্থা। ইউকে সেফার ইন্টারনেট সেন্টার (ইউকেএসআইসি) বলেছে, বিষয়টি নিয়ে স্কুল থেকে কিছু অভিযোগ এসেছে। এই বিষয় নিয়ে দ্রুত পদক্ষেপ নিতে হবে।

 

এধরনের ছবি যে শিশু নির্যাতনমূলক কনটেন্টের আওতায় পড়ে, তা শিশুরা বুঝতে পারে না। সমস্যা সমাধানে শিক্ষক ও অভিভাবকদের একযোগে কাজ করার পরামর্শ দিচ্ছে সংস্থাটি। ইউকেএসআইসি বলছে, ক্ষতি করার উদ্দেশ্য নয় বরং কৌতূহলের বশে এই ধরনের ছবি তৈরি করছে শিশুরা। যুক্তরাষ্ট্রের আইন অনুসারে, আসল হোক বা এআই দিয়ে তৈরি করা হোক- এই ধরনের ছবি নিজের কাছে রাখা বা ছড়ানো অবৈধ।

 

এসব ছবি শিশুদের হাতছড়া হয়ে অনলাইনে ছড়িয়ে পড়তে পারে। এছাড়া ছবিগুলো ব্ল্যাকমেলের জন্যও ব্যবহার করা হতে পারে। প্রযুক্তি বিষয়ক কোম্পানি আরএম টেকনোলজি এক গবেষণায় বলছে, ১ হাজার শিক্ষার্থীর এক–তৃতীয়াংশই এআই ব্যবহার করে ‘অনলাইনে অশ্লীল কনটেন্ট দেখছে’। কোম্পানির অনলাইন নিরাপত্তা ব্যবস্থাপক তাশা গিবসন বলেন, ‘শিক্ষার্থীদের নিয়মিত এআই ব্যবহার করা সাধারণ ব্যাপার।

 

এআই প্রযুক্তির ব্যবহারে শিক্ষকদের চেয়ে শিক্ষার্থীরা এগিয়ে থাকার কারণে জ্ঞানের ব্যবধান তৈরি হয়েছে। এর ফলে শিক্ষার্থীদের অনলাইনে নিরাপত্তা দেওয়া এবং এই প্রযুক্তি অপব্যবহার বন্ধ করা কঠিন হয়ে যাবে।

 

গবেষণায় বলা হয়, এই ধরনের ক্ষতিকর কনটেন্ট সম্পর্কে শিক্ষা দিতে অভিভাবক, স্কুল নাকি সরকার দায়িত্ব নেবে তা নিয়ে শিক্ষকেরা দুই ভাগে বিভক্ত। ইউকেএসআইসির পরিচালক ডেভিড রাইটের মতে, স্কুলগুলি এই সমস্যায় ডুবে যাওয়ার আগে ও সমস্যা বাড়ার আগেই জোরালো পদক্ষেপ নিতে হবে।

মেরি কলিনস ফাউন্ডেশন নামের এক দাতব্য সংস্থার প্রধান নির্বাহী ভিক্টোরিয়া গ্রিন বলেন, কোনো যৌন নির্যাতনমূলক ঘটনা শিশুদের ‘পুরো জীবনের’ ওপর প্রভাব ফেলে। ছবিগুলো যারা তৈরি করে, তারা হয়ত শিশুদের ক্ষতির জন্য বানায় না।

 

তবে এই ধরনের কনটেন্ট কোনো ভুল মানুষের কাছে গেলে, এগুলো তারা বিভিন্ন সাইটে শেয়ার করতে পারে। ভুক্তভোগীদের লজ্জা দিতে বা তাদের মুখ বন্ধের জন্য যৌন অপরাধীরাও এসব ছবি ব্যবহারের সুযোগ দিতে পারে।

 

‘ডিক্লোথিং অ্যাপ’

গত সেপ্টেম্বরে এআই ব্যবহার করে এই ধরনের কুরুচিপূর্ণ কনটেন্ট তৈরির সুযোগ তৈরি হয়। ডিক্লোথিং অ্যাপ নামে একটি অ্যাপের সাহায্যে কোনো ব্যক্তির জামা–কাপড় সরিয়ে ফেলে নগ্ন ছবি তৈরি করা যায়। সেই সময় ১১ থেকে ১৭ বছর বয়সী স্প্যানিশ মেয়েদের নগ্ন ছবি তৈরি করা হয়। ২০ জনেরও বেশি কিশোরী ঘটনার শিকার হয়।

 

ছবিগুলো তাদের অজান্তেই সামাজিক যোগাযোগ মাধ্যমে ছড়িয়ে পড়ে। যারা ছবিগুলো তৈরি করেছে, তাদের বিরুদ্ধে এখন পর্যন্ত কোনো অভিযোগ আনা হয়নি। ২০১৯ সালে সামাজিক যোগাযোগ মাধ্যমে এই ধরনের অ্যাপগুলো দেখা যায়। মেসেজিং অ্যাপ টেলিগ্রামে এআইভিত্তিক এই ফিচার প্রায়ই পাওয়া যায়, যা সাধারণত বট নামে পরিচিত।

 

স্প্যানিশ বটের প্রায় ৫০ হাজার সাবস্ক্রাইবার রয়েছে। অর্থাৎ অনেক ব্যবহারকারী এই ধরনের ছবি তৈরি করার জন্য ফি দেয়। তবে অনেকগুলি বিনামূল্যেও ব্যবহার করা যায়। মন্তব্য জানতে বট নির্মাতাদের সঙ্গে যোগাযোগ করলে তাঁরা তা দিতে রাজি হয়নি।

 

আইটি সিকিউরিটি কোম্পানি নোবিফরইউয়ের সাইবার বিশেষজ্ঞ জাভেদ মালিক বিবিসিকে বলেন, বাস্তব ও এআই দিয়ে তৈরি ছবির মধ্যে পার্থক্য করা কঠিন হয়ে উঠছে। এটি এমন এক প্রবণতা যা ‘ডিক্লোথিং’ অ্যাপের ব্যবহার উসকে দিচ্ছে।

 

আরও খবর

Sponsered content