প্রায় ত্রিশটি দেশের পঞ্চাশজন পৃথিবীর সেরা আর্টিফিশিয়াল ইন্টেলিজেন্স গবেষক একটি চিঠি দিয়েছেন, যেখানে তাদের মূল বিষয় ছিল অস্ত্র তৈরিতে কোন প্রকার কৃত্রিম বুদ্ধিমত্তা প্রয়োগ করা যাবে না। তারা এরকম প্রযুক্তি তৈরিতে অংশগ্রহণ করবে না। তার মানে হচ্ছে বিশেষজ্ঞরা এমন কোনো অস্ত্র তৈরি করবে না যার ভিতর কৃত্রিম বুদ্ধিমত্তা প্রয়োগ হয়ে থাকবে।
বিশ্বের নামকরা বিশ্ববিদ্যালয় Korean Advanced Institute of Science and Technology (KAIST), যেটা দক্ষিণ কোরিয়াতে অবস্থিত, Hanwha Systems নামক একটি শিল্প প্রতিষ্ঠানের সাথে এরকম অস্ত্র তৈরির একটি চুক্তির ভিতর এসেছিলো। কিন্তু আর্টিফিশিয়াল ইন্টেলিজেন্স গবেষকরা এই বিশ্ববিদ্যালয়কে রীতিমতো বয়কট করেছে, কারণ তাদের মতে স্বয়ংক্রিয় অস্ত্র তৈরি মানবিক নীতি বিরোধী। এতে সন্ত্রাসী কর্মকাণ্ডকে উসকে দেয়া হতে পারে এবং এরকম প্রযুক্তি মানবজাতিকে ধ্বংস করে দিতে পারে। উল্লেখ্য, এই বয়কট করার ঘোষণা এমন এক সময়ে এলো যখন পৃথিবীর তাবৎ বিজ্ঞানী এবং প্রযুক্তিবিদেরা সামনের জাতিসংঘের অধিবেশনে এই ধরনের কৃত্রিম বুদ্ধিমত্তা সম্পন্ন অস্ত্র বা কিলার রোবট তৈরির নিষেধাজ্ঞা নিয়ে আলোচনা করার কথা চিন্তা করছে।
এর প্রতিক্রিয়াতে উক্ত বিশ্ববিদ্যালয় থেকে জানানো হয় যে, তারা এমন কোনো কর্মকাণ্ডের সাথে জড়িত নয় যেটা নৈতিকতা বিরুদ্ধ। KAIST এর প্রেসিডেন্ট শিন সুন-চুল এ ব্যাপারে বিবৃতি দিয়েছেন,
“আমি আবারও সবাইকে আশ্বস্ত করতে চাই KAIST এমন কোনো গবেষণা করবে না যেটা মানুষের জন্য হানিকারক। স্বয়ংক্রিয় অস্ত্র যেগুলোর উপর মানুষের কোন নিয়ন্ত্রণ থাকবে না, এমন কিছু নিয়ে গবেষণায় বিশ্ববিদ্যালয় জড়িত থাকবে না”।
তিনি আরও পরিষ্কার করে বলেন যে, তাদের বিশ্ববিদ্যালয় কৃত্রিম বুদ্ধিমত্তা নিয়ে এমন কিছু গবেষণার সঙ্গে যুক্ত যার প্রধান উদ্দেশ্য লজিস্টিক সিস্টেমের জন্য দক্ষ এলগরিদম তৈরি করা যা চালকবিহীন নৌ-চালনা এবং বিমান চালনা করার জন্যে ব্যবহার করা হবে।
কিলার রোবট নিরোধ করার ক্যাম্পেইনের প্রধান প্রফেসর নয়েল শারকি, যিনি প্রথম সেই চিঠিতে স্বাক্ষর করছিলেন, KAIST এর এমন বিবৃতিকে স্বাগত জানিয়েছেন। তিনি বলেছেন, “আমরা KAIST থেকে একটি চিঠি পেয়েছি যেখানে আমাদেরকে জানানো হয়েছে যে, কোনো প্রকার স্বচালিত অস্ত্র তৈরিতে তাদের বিশ্ববিদ্যালয় যুক্ত নয় এবং তারা জানে যে এই ধরনের গবেষণা করাও মানব-নীতি বিরোধী। কিন্তু যেসব বিশেষজ্ঞরা এই চিঠিতে স্বাক্ষর করছেন তাদের সবার মতামত নেয়ার জন্য এবং KAIST এর উপর থেকে নিষেধাজ্ঞা তুলে নেয়ার জন্য কিছু সময় লাগতে পারে। ততদিন পর্যন্ত আমাদের কৃত্রিম বুদ্ধিমত্তা বিষয়ের বিজ্ঞানীদের সেই বিশ্ববিদ্যালয়ের সাথে যাবতীয় কর্মকাণ্ড স্থগিত থাকবে।”
আগামী সপ্তাহে জেনেভাতে জাতিসংঘের ১২৩টি দেশ এই কিলার রোবট বা স্বয়ংক্রিয় অস্ত্রের ব্যাপারে জরুরী সভা করবে। এই সভার উদ্দেশ্য হচ্ছে এই ধরনের অস্ত্র তৈরি পুরোপুরি নিষেধাজ্ঞার আওতায় আনা। ২২টি দেশ ইতোমধ্যে নিষেধাজ্ঞার ব্যাপারে তাদের মতামত জানিয়ে দিয়েছে এবং তাদের দাবি হচ্ছে অতি দ্রুত এই ধরনের কর্মকাণ্ড বন্ধ করার নির্দেশ ঘোষণা করা উচিত।
পৃথিবীর সেরা আর্টিফিশিয়াল ইন্টেলিজেন্স গবেষকরা যে চিঠি দিয়েছেন এবং KAIST কে বয়কট করার যে ঘোষণা দিয়েছেন সেখানে উল্লেখ আছে যে যখন জাতিসংঘ স্বয়ংক্রিয় অস্ত্র তৈরি নিয়ে চিন্তিত এবং আন্তর্জাতিক সুরক্ষা নিশ্চিত করতে এর সম্ভাব্য হুমকি নিয়ে আলোচনা করতে বসতে যাচ্ছে ঠিক তখনই পৃথিবীর খ্যাতনামা একটি বিশ্ববিদ্যালয় এই ধরণের অস্ত্র কীভাবে আরও উন্নত করা যায় এবং এতে কত দক্ষতার সাথে কৃত্রিম বুদ্ধিমত্তা প্রণয়ন করা যায় সেটা নিয়ে গবেষণা করার জন্য এগিয়ে যাচ্ছে এবং তার জন্য শিল্প প্রতিষ্ঠানের কাছে সহযোগিতার হাত বাড়িয়েছে? যদি এই ধরনের অস্ত্র তৈরি করা হয় যা নিজে নিজে চলতে ফিরতে পারবে যেমনটি চালকবিহীন গাড়ি চলাচল করতে পারে তাহলে এই অস্ত্রের কল্যাণেই (?) পৃথিবীতে তৃতীয় বিশ্বযুদ্ধের চূড়ান্ত সূত্রপাত শুরু হয়ে যাবে। এই অস্ত্র যে দেশের হাতেই থাকবে তারা ধ্বংসের চরম মুহূর্ত ঘটাতে সক্ষম হবে। যদি কোনো দেশের মধ্যে যুদ্ধ হয় তাহলে এই অস্ত্রের কল্যাণে যুদ্ধ খুব দ্রুত হবে। কোনো আলোচনার মধ্যে গিয়ে মীমাংসা করার আগেই সব ধ্বংস হয়ে যাবে, মানুষ মারা পড়বে।
জাতিসংঘের কাছে পাঠানো সেই চিঠিতে এই ধরনের অস্ত্রকে বলা হয়েছে Lethal Autonomous Technology। ১১৬ জনের স্বাক্ষরিত এই চিঠি জাতিসংঘে পাঠানো হয়। জাতিসংঘের UN Convention on Certain Conventional Weapons এর কাছে নিষেধাজ্ঞার আর্জি দিয়ে এই চিঠি পাঠানো হয়।
এর আগে ২০১৫ সালে ১,০০০ জনের বেশী প্রযুক্তি বিশেষজ্ঞদের স্বাক্ষরিত একটি চিঠি প্রদান করা হয় যেখানে এই প্রযুক্তির নিষেধাজ্ঞা নিয়ে আলোচনা করা হয়েছিল। সেখানে স্বাক্ষর করেছিলেন সদ্য প্রয়াত বিখ্যাত বিজ্ঞানী স্টিফেন হকিং, অ্যাপেলের সহ প্রতিষ্ঠাতা স্টিভ ওজনিয়াক, টেসলা এবং স্পেস এক্সের মালিক এলন মাস্কের মতো ব্যক্তিরা।
এরকম অস্ত্রের কল্যাণে যারা ক্ষমতার শিখরে অবস্থান করছেন এবং যারা সন্ত্রাসী কর্মকাণ্ডে জড়িত তারা নিরাপরাধ, নির্দোষ মানুষের উপর, তাদের দেশ দখলের উপর এই স্বয়ংক্রিয় অস্ত্র প্রয়োগ করতে পারে এবং মানবিক সব নীতিরীতিকে ধূলিসাৎ করে ফেলতে পারে।
শেফিল্ড বিশ্ববিদ্যালয়ের কৃত্রিম বুদ্ধিমত্তা এবং রোবটিক্স এর এমিরেটাস প্রফেসর নয়েল শারকি এই ধরনের অস্ত্র কতটা ভয়ংকর হয়ে উঠতে পারে সেটা নিয়ে কথা বলেছেন। তার মতে, “ইসলামিক স্টেটের মতো সংঘের কাছে ড্রোন আছে যেটা দিয়ে তারা হামলা করতে পারে, কিন্তু এখনও পর্যন্ত সেটা মানব নিয়ন্ত্রিত। “Arms Race” – এর মতো জায়গায় কৃত্রিম বুদ্ধিমত্তা প্রয়োগ করলে সেটা তৈরি করবে আরও স্মার্ট ড্রোন এবং তাকে দিয়ে যা ইচ্ছা তাই করানো যাবে।”
কৃত্রিম বুদ্ধিমত্তা সম্পন্ন এই আধুনিক প্রযুক্তির অস্ত্র সমৃদ্ধ পেন্ডোরার বাক্স যদি একবার খুলে ফেলা হয় তাহলে সেটা বন্ধ করা খুব জটিল হয়ে পড়বে।
দক্ষিণ কোরিয়া কিন্তু ইতোমধ্যে মানব চালিত আর্মি রোবট নামিয়ে দিয়েছে। উত্তর কোরিয়ার সাথে লাগানো বর্ডারে এই রোবট আর্মি পাহারা দেয়ার জন্য ব্যবহার করা হচ্ছে। Samsung SGR-A1 মেশিন গান বহন করতে পারে যেটার মধ্যে নিজে নিজে স্বয়ংক্রিয়ভাবে কাজ করার মোড দেয়া আছে। যদিও ক্যামেরা এবং মানুষ এখন এই রোবটগুলোকে চালিত করে।
স্বয়ংক্রিয় অস্ত্র বা যেগুলোকে আমরা কিলার রোবট বলছি সেগুলো কিন্তু এখনও সেভাবে সহজলভ্য নয়। তবে আধুনিক প্রযুক্তির উৎকর্ষের দিনে যখন কৃত্রিম বুদ্ধিমত্তার জয়জয়কার চলছে, তখন এই ধরনের অস্ত্র বানানো সময়ের ব্যাপার মাত্র। কিন্তু মানব কল্যাণের জন্য পৃথিবীর বিখ্যাত সব প্রযুক্তিবিদরা এরকম ভয়ংকর অস্ত্র নিষেধাজ্ঞার জন্য যে পদক্ষেপ নিয়েছেন তার জন্য আমরা তাদের সাধুবাদ জানাই। এরকম প্রতিবাদ মানব এবং মানবিকতার ইতিহাসে চির অম্লান হয়ে থাকবে।
ফিচার ইমেজ সোর্স: bbc.com (Getty images)