Welcome to Roar Media's archive of content published from 2014 to 2023. As of 2024, Roar Media has ceased editorial operations and will no longer publish new content on this website.
The company has transitioned to a content production studio, offering creative solutions for brands and agencies.
To learn more about this transition, read our latest announcement here. To visit the new Roar Media website, click here.

শিশু নির্যাতন অ্যালগরিদম: নির্ভরযোগ্যতা কতটুকু?

পত্রিকা খুললেই প্রতিদিন আমাদের কমপক্ষে একটি খবরের দেখা মিলবেই, তা হলো শিশু নির্যাতন। শিশু রাজন হত্যা আমাদের হৃদয় কাঁপিয়ে তুললেও গৃহপরিচারিকা রোকসানার মতো বর্তমানে প্রতিনিয়ত শিশু নির্যাতন এবং শিশু ধর্ষণের খবর আমাদের কাছে রোজকার খুব সাধারণ বিষয় হয়ে দাঁড়িয়েছে। পরিসংখ্যানই প্রমাণ করে দেয় শিশুদের প্রতি নির্মমতা এবং কঠোরতা কতটা ভয়াবহ পর্যায়ে পৌঁছেছে।

গৃহপরিচারিকা রোকসানা; Image Source: Jagonews24

কেবলমাত্র বাংলাদেশেই ২০১৭ সালে ৩,৮৪৫ জন শিশু বিভিন্ন ধরনের নির্যাতন এবং সহিংসতার শিকার হয়েছে, বাস্তবে সংখ্যাটা আরো বেশি। আর সংখ্যার পরিমাণটা যেন প্রতি বছরেই নতুন রেকর্ড করে চলেছে।

শুধু বাংলাদেশ নয়, সারা বিশ্বের জন্য শিশু নির্যাতনের ভয়াবহতা এখন তীব্র মাথাব্যথার কারণ হয়ে দাঁড়িয়েছে। চারিদিকে এখন বিজ্ঞান-প্রযুক্তি এবং কৃত্রিম বুদ্ধিমত্তার জয়জয়কার। আর এই শিশু নির্যাতন ঠেকাতে তাই প্রযুক্তির আশ্রয় নেয়াটা আশ্চর্যজনক কিছু নয়।

তবে বাংলাদেশে এই ধরনের কোনো পদক্ষেপ না নেয়া হলেও ইংল্যান্ডের বেশ কিছু পরিষদ এই অপরাধ ঠেকাতে এবং নির্যাতিত শিশুদের চিহ্নিত করতে পদক্ষেপ গ্রহণ করছে।

কিছুদিন আগেও যেসব বিষয় শোভা পেত কল্পবিজ্ঞানের পাতায়, কৃত্রিম বুদ্ধিমত্তা (AI) এবং বিগ ডাটার আশীর্বাদে তা এখন আমাদের নিত্যদিনের সঙ্গী। আর এই বিগ ডাটা বা বিপুল সংখ্যক তথ্যকে ব্যবহার করে এবং প্রতিনিয়ত তথ্য সংগ্রহের মাধ্যমে তারা তৈরি করেছেন কম্পিউটার অ্যালগরিদম, যার মাধ্যমে কৃত্রিম বুদ্ধিমত্তা চিহ্নিত করতে পারবে নির্যাতিত শিশুদের। অর্থাৎ মানুষের উপর নির্ভরশীলতা অনেকাংশে কমিয়ে দিয়ে নির্যাতিত শিশুদের নিজে থেকেই শনাক্ত করবে এই তথ্য বিশ্লেষণী সিস্টেমটি।

একটি যন্ত্রের ভুল করার সম্ভাবনা মানুষের তুলনায় অনেক কম এ আমাদের সকলেরই জানা। কিন্তু বিষয়টি যখন শিশুদের বিপদ নিয়ে তখন প্রশ্ন উঠতেই পারে কতটুকু নিরাপদ এই প্রক্রিয়া? এখানে কেউ বৈষম্যতার শিকার হবে না তো? কীভাবেই বা কাজ করবে এই অ্যালগরিদম সিস্টেম? আর কাজটা যখন শিশুদের বিপুল পরিমাণ তথ্য নিয়ে, তখন তথ্য নিরাপত্তার বিষয়টি কী ঝুঁকির মুখে থাকছে না?

ইংল্যান্ড স্থানীয় সরকারের প্রায় পাঁচটি কর্তৃপক্ষ এ ব্যাপারে কাজ করছে যার মধ্যে অন্যতম হলো থারক (Thurrock) এবং হ্যাকনি (Hackney) কাউন্সিল। প্রায় ৩ লক্ষ ৭৭ হাজার মানুষের তথ্য তারা সংগ্রহ করেছেন এই সিস্টেমটি পরিচালনার জন্য। সাধারণত বিগ ডাটা ভিত্তিক প্রক্রিয়াগুলোতে প্রচুর পরিমাণের তথ্য নিয়ে কাজ করা হয়, আর তথ্যের পরিমাণ যত বেশি হবে সিস্টেম ঠিক ততটাই নির্ভুল ফলাফল দিতে সক্ষম হবে। বিগ ডাটার প্রতি আগ্রহী হয়ে ওঠার আরো একটি কারণ হলো যথেষ্ট পরিমাণ তহবিলের অভাব।

হ্যাকনি (Hackney) কাউন্সিল; Image Source: Humanists UK
থারক (Thurrock) কাউন্সিল; Image Source: Daily Mail

ইংল্যান্ডের এমনই আরেকটি পরিষদ হলো ব্রিস্টল কাউন্সিল, যেখানে শিশু নির্যাতন অ্যালগরিদম নিয়ে চলছে বিস্তর গবেষণা। তবে এই গবেষণার সাথে সাথে তাদের মুখোমুখি হতে হচ্ছে নীতিনৈতিকতা বিষয়ক বিভিন্ন প্রশ্নের। কাউন্সিলটিতে এই প্রক্রিয়ার তত্ত্বাবধানে থাকা গ্যারি ডেভিস অসুবিধার থেকে সুবিধার দিকটিতে বেশি নজর দিচ্ছেন। তার ভাষ্যমতে, এই প্রক্রিয়ার মাধ্যমে মানুষকে সিদ্ধান্ত নেয়ার দায়িত্ব থেকে পুরোপুরিভাবে সরিয়ে দেয়া হচ্ছে না, বরং মানুষ ভুল করে বসলে তা শুধরে দিবে এই অ্যালগরিদম। তিনি বলেন,

“এই অ্যালগরিদম আপনাকে নিশ্চিতভাবে বলে দিবে না যে শিশুটি শারীরিক বা মানসিকভাবে নির্যাতিত হবে কিংবা হারিয়ে যাবে, বরং এটি তার নির্যাতিত হবার আচরণগত বৈশিষ্ট্যগুলোকে প্রদর্শন করবে। শিশুটির দুর্বলতা আর তার ঝুঁকির বিষয়গুলোকে চিহ্নিত করবে।”

এই মডেলটির পরিকল্পনাকারীরা প্রথমেই কিছু ফলাফল সেট সংগ্রহ করবেন, এর দ্বারা সিস্টেমটি পরবর্তীতে কোনো শিশুর ব্যবহারিক আচরণ পর্যবেক্ষণ করে উভয়ের তুলনার মাধ্যমে একটি সিদ্ধান্ত গ্রহণ করবে।

যেমন- একটি শিশুকে যদি সিস্টেমটি পর্যবেক্ষণ করে তার আচরণ লক্ষ্য করে এবং মানসিক অবস্থার বহিঃপ্রকাশগুলোকে চিহ্নিত করতে পারে তবে তার ব্যাপারে বেশ কিছু তথ্য পাওয়া যাবে। এবার সিস্টেম অ্যালগরিদম অনুযায়ী পূর্বে সংগৃহীত অসংখ্য পরিমাণ ডাটাসেটের সাথে মিল খোঁজার চেষ্টা করবে। এভাবে একটি সিদ্ধান্তে পোঁছাতে পারবে এই সিস্টেমটি। এক্ষেত্রে কাউন্সিলগুলো পারিবারিক নির্যাতিত শিশু, কিশোর-কিশোরী নিপীড়ন, বিদ্যালয়চ্যূত কিশোর-কিশোরীদের ব্যাপারে তথ্য সংগ্রহ করছে। তবে পরিষ্কারভাবে কেউই জানায়নি তারা কী কী ধরনের তথ্য ব্যবহার করছেন। আর তাদের সিস্টেমটিই বা কীভাবে কাজ করছে।

কিন্তু এই ধরনের একটি সিস্টেম নিঃসন্দেহে তথ্যগত নিরাপত্তা নিয়ে প্রশ্ন তুলছে।

থারক এবং হ্যাকনি কাউন্সিলকে বিশ্লেষণী সিস্টেমটির সেবা প্রদানকারী প্রতিষ্ঠান জান্তুরা (Xantura)-র প্রধান নির্বাহী ওয়াজিদ শাফিক জানান, তথ্য নিরাপত্তা এবং প্রযুক্তির ব্যবহার এই দুইয়ের মাঝে ভারসাম্য বজায় রাখা উচিত। তিনি বলেন,

“বিষয়টি আমার কাছে মনে হয়, আমরা কী পারবো এরকম কোনো সিস্টেম তৈরি করতে যা একইসাথে নির্যাতিতদের নিরাপত্তা দেবে এবং সবার অধিকার নিরাপত্তা নিশ্চিত করবে? অবশ্যই আমাদের তা পারতে হবে, নাহলে আমরা নির্যাতিতদের কোনো সাহায্য করতে পারবো না।”

 Image Source: Lifespandevhealthinfo

কিন্তু সিস্টেমটির মূল ভিত্তি নিয়ে নানা রকম জটিল প্রশ্ন তৈরি করছে। মজার বিষয় হলো, কাউন্সিলগুলোর স্পষ্টভাবে ডাটা প্রক্রিয়ার কোনো অনুমতির দরকার নেই। চিল্ড্রেন অ্যাক্টের আইনানুযায়ী, তারা শিশুদের কল্যাণের কথা বলে অন্যের ব্যক্তিগত তথ্য প্রক্রিয়া করে যেতে পারবেন খুব সহজেই। কিন্তু এরপরেও তারা পুরোপুরিভাবে তথ্য নিরাপত্তার বিষয়টি ঢাকা দিতে পারবেন না। ইউনিভার্সিটি কলেজ লন্ডনের মেশিন লার্নিং গবেষক মাইকেল ভিয়েল জানান,

“আইনের জোরে তারা যেকোনো ধরনের তথ্য প্রদান অনুরোধ নাকচ করে দিতে পারলেও তাদের জটিল সিস্টেমটি কীভাবে কাজ করছে এই ব্যাপারে সাধারণ রূপে নির্দিষ্ট কিছু তথ্য দেয়া লাগবেই।”

জাতীয়ভাবে এই ধরনের সিস্টেমের তদারকির জন্য কোনো সংস্থা নেই। তাই একেক কর্তৃপক্ষ এর স্বচ্ছতা নিয়ে একেক রকম ধারণা দেবে- এটাই স্বাভাবিক। থারক কাউন্সিল এর নিরাপত্তা নিয়ে একটি নোটিশ তাদের ওয়েবসাইটে পাবলিশ করলেও সেখানে তারা পরিষ্কারভাবে কিছু উল্লেখ করেনি, এমনকি সচেতনতা তৈরির ব্যাপারেও কিছু উল্লেখ করা হয়নি। অপরদিকে হ্যাকনি কাউন্সিল বছরের শুরুর দিকে তথ্য স্বাধীনতা বিষয়ক একটি অনুরোধ নাকচ করে দিয়ে বলে,

“গবেষণায় কী ধরনের তথ্য ব্যবহার করা হচ্ছে তা জানানো হবে না। কারণ তা জানানো হলে এই সিস্টেমটি যে কারণে তৈরি করা হয়েছে তাতে অন্যের হস্তক্ষেপ বৃদ্ধি পাবে।”

ওয়াজিদ শাফিক জানান, তার কোম্পানি কেবলমাত্র অনুমোদিত এবং সংবিধিবদ্ধ আইনের আওতায় তথ্য নিয়ে কাজ করে যাচ্ছে। আর যেহেতু বিষয়টি জনসম্মুখে এসেছে, তাই এখানে ক্যামব্রিজ অ্যানালিটিকার মতো ঘটনা ঘটবে না। তবে তিনি এটাও জানান, এর জন্য কর্তৃপক্ষকে আরো সচেতন হতে হবে। জনগণকে জানাতে হবে আমরা কী করছি এবং কেন করছি। “জনগণের সাথে আমাদের আরো খোলামেলা আলোচনায় বসা উচিত যাতে পুরো বিষয়টি আরো উপযুক্ত এবং সামঞ্জস্যপূর্ণ হয়।”

কিন্তু এই সিস্টেমের বিরুদ্ধে আরো একটি অভিযোগ হলো সুবিধাবঞ্চিত একটি শ্রেণীর উপর বেশি নজর দেয়া। এর ফলে একপাক্ষিকতা প্রকাশ পাচ্ছে। অনেকেই ধারণা করছেন, কাউন্সিলগুলো যতটা না গরীব পরিবারগুলোর উপর নজরদারী করবে, ততটা ধনী পরিবারগুলোর উপর করবে না। অটোমেটিং ইনইক্যুয়ালিটি বইয়ের লেখক ভার্জিনিয়া জানান,

“যদি সিস্টেমের মধ্যে কোনো ত্রুটি থাকে বা কোনো একটি শ্রেণীর ডাটা বেশি সংগ্রহ করা হয় তবে আপনি কেবল অসাম্যতার প্রতিফলনই ঘটাচ্ছেন না, সাথে সাথে এটিকে অসামঞ্জস্য করে তুলছেন একটি ত্রুটিপূর্ণ ফলাফল প্রদর্শনের মাধ্যমে।”

ভিয়েল এক্ষেত্রে প্রাইভেট এবং পাবলিক বিদ্যালয়গুলোর উদাহরণ সামনে আনেন। পাবলিক বিদ্যালয়গুলোতে মডেল অনুসারে হয়তো শিশুরা ‘ঝুঁকির’ একটি পর্যায় পার করে না, তারা নিরাপদ হিসেবে চিহ্নিত হচ্ছে। কিন্তু তার মানে এই না যে প্রাইভেট বিদ্যালয়গুলোতেও ঝুঁকির মাত্রাটা একই থাকবে। বরং সেখানে আরো বেশি হবে। তাই একটি ক্ষেত্রের ফলাফল দিয়ে আরেকটি ক্ষেত্র নিয়ে ধারণা করে মডেল সঠিক ফলাফল দেবে না।

আর্টিফিশিয়াল ইন্টেলিজেন্স এবং বিগ ডাটা নিঃসন্দেহে অপরাধ বা বিপদ ঘটানো রোধের একটি উপযুক্ত হাতিয়ার। আমরা ইতোমধ্যে জীবনের অনেক ক্ষেত্রেই অনেক কাজই এই যন্ত্রগুলোর উপর ছেড়ে দিয়েছি। কিন্তু এই সিস্টেম কি এখনো পুরোপুরিভাবে তৈরি এই বাস্তবতা মোকাবিলা করতে? থারক এবং হ্যাকনি কাউন্সিলের সফটওয়্যারের নির্ভুলতার পরিমাণ এখন পর্যন্ত শতকরা ৮০ ভাগ। এতদিন আমরা এই ধরনের ঘটনা কেবল সাই-ফাই মুভি কিংবা বইয়ের পাতাতেই দেখতাম, কিন্তু এখন তা পৌঁছে গেছে বাস্তব জগতে।

 Image Source: Eduardo Magrani

তবুও এই সিস্টেম মানুষেরই তৈরি, যাতে তারা নিজেদের ভুলগুলো শুধরানোর দায়িত্ব মেশিনের উপর ছেড়ে দিতে পারে। কিন্তু এর বিরুদ্ধে অভিযোগ এনেছে অনেকেই।

প্রতিবাদ করেছেন অনেকে। তদের মতে, কখনোই একটি যন্ত্র এত সংবেদনশীল বিষয়ে ভূমিকা রাখতে পারে না। এছাড়াও অনুমতি ছাড়া তাদের তথ্য সংগ্রহ করা হচ্ছে তাদের অগোচরে, যা তাদের গোপনীয়তা লঙ্ঘন করছে।

আপনার কী মনে হয়? এই সিস্টেম কতটুকু নির্ভরযোগ্য? এখানে কী কোনো ধরনের পরিবর্তন আনা যেতে পারে? নিজ দেশেই বা এর সম্ভাবনা কতটুকু? আপনি সিস্টেমটিকে নিজের মতো করে কীভাবে দেখেন? আমাদের জানাতে ভুলবেন না আপনার মতামত।

This article is in Bangla Language. It's about child abuse algorithm
References: The Guardiuan [1][2][3] 
Featured Image: PEM ED (Edited by Writer)

Related Articles