১৯৮৩ সালের ওয়ার গেমস ছবিতে, WOPR (ওয়ার অপারেশন প্ল্যান রেসপন্সের জন্য) নামে পরিচিত একটি সুপার কম্পিউটার মার্কিন যুক্তরাষ্ট্র এবং সোভিয়েত ইউনিয়নের মধ্যে পারমাণবিক যুদ্ধ শুরু করতে চলেছে, কিন্তু একজন কিশোরের (ম্যাথিউ ব্রোডেরিক অভিনীত) AI এর কারণে যুদ্ধের বিপর্যয় এড়ানো যায়।
এক বছর পরে মুক্তিপ্রাপ্ত প্রথম টার্মিনেটর ছবিতে, “স্কাইনেট” নামক একটি সুপার কম্পিউটার মানবতাকে ধ্বংস করার সিদ্ধান্ত নেয় কারণ এটি আমেরিকান পারমাণবিক অস্ত্র রক্ষা করার পরিবর্তে তার অস্তিত্বের জন্য হুমকি হিসেবে বিবেচিত হয়।
যদিও এই ছবিগুলোতে দর্শকদের বুদ্ধিমান মেশিনের ভয়াবহ দৃশ্য দেখানো হত, তবুও এগুলো ভবিষ্যদ্বাণীমূলকও ছিল। কৃত্রিম বুদ্ধিমত্তা (এআই) এতটাই সাধারণ যে এটি নিয়মিতভাবে গুগল সার্চের সময় ব্যবহার করা হয়। সামরিক কৌশলেও এটিকে একীভূত করা হচ্ছে, এতে অবাক হওয়ার কিছু নেই।
এই উচ্চ প্রযুক্তির অস্ত্রগুলির (যেগুলি এখন ব্যবহারের জন্য প্রস্তুত এবং যেগুলি উন্নয়নাধীন) ক্ষমতা সম্পর্কে আমাদের খুব কম ধারণা রয়েছে। আমরা এমন সিস্টেমের জন্যও প্রস্তুত নই যেগুলি চিরতরে যুদ্ধকে রূপান্তরিত করার ক্ষমতা রাখে।
ইতিহাস জুড়ে, এটি মানব বুদ্ধিমত্তা যা প্রযুক্তি ব্যবহার করে, প্রযুক্তি নিজেই নয়, যা যুদ্ধে জয়ী বা পরাজিত হয়েছে। ভবিষ্যতে এটি পরিবর্তিত হতে পারে যখন মানব বুদ্ধিমত্তা এমন সিস্টেম তৈরির দিকে মনোনিবেশ করবে যা যুদ্ধক্ষেত্রে প্রতিপক্ষের তুলনায় বেশি সক্ষম।
“এক্সপোনেনশিয়াল, ইনসামাউন্টেবল সারপ্রাইজ”
কৃত্রিম বুদ্ধিমত্তা এমন কোনও প্রযুক্তি নয় যা সহজেই সনাক্ত করা, পর্যবেক্ষণ করা বা নিষিদ্ধ করা যেতে পারে, যেমন স্পার্ককগনিশন নামে একটি এআই কোম্পানির প্রতিষ্ঠাতা এবং সিইও আমির হোসেন মিডিয়া নিউজের জন্য একটি প্রবন্ধে উল্লেখ করেছেন।
AI উপাদানগুলিকে – চাক্ষুষ স্বীকৃতি, ভাষা বিশ্লেষণ, সিমুলেশন-ভিত্তিক ভবিষ্যদ্বাণী এবং অনুসন্ধানের উন্নত রূপগুলিকে – বিদ্যমান প্রযুক্তি এবং প্ল্যাটফর্মের সাথে একীভূত করলে “দ্রুত সম্পূর্ণ নতুন এবং অপ্রত্যাশিত ক্ষমতা তৈরি হতে পারে।” এর ফলাফল “ঘটনাগত, অপ্রতিরোধ্য বিস্ময় তৈরি করতে পারে,” হুসেন লিখেছেন।
যুদ্ধের ক্ষেত্রে উন্নত প্রযুক্তি ইতিমধ্যেই ব্যাপক। সামরিক ক্ষেত্রে আনক্রুড এরিয়াল ভেহিকেল (UAV) – যা সাধারণত ড্রোন নামে পরিচিত – ব্যবহার “হত্যাকারী রোবট” সম্পর্কে সতর্কতা জারি করেছে।
যখন ড্রোন আর মানুষের দ্বারা নিয়ন্ত্রিত হয় না এবং তারা নিজেরাই সামরিক মিশন পরিচালনা করতে পারে তখন কী হয়? এই ড্রোনগুলি কেবল আকাশে সীমাবদ্ধ নয়; তারা মাটিতে বা পানির নিচেও কাজ করতে পারে। AI এর প্রবর্তন, কার্যকরভাবে এই অস্ত্রগুলিকে যুদ্ধের সময় স্বায়ত্তশাসনের ক্ষমতা প্রদান করে, খুব বেশি দূরে নয়।
তাছাড়া, এগুলি তৈরি করা সস্তা। রাশিয়ানরা ইউক্রেনে তাদের যুদ্ধের ক্ষেত্রে ব্যবহারের জন্য ইরান থেকে ড্রোন কিনছে এবং ইউক্রেনীয়রা রাশিয়ানদের বিরুদ্ধে তাদের নিজস্ব ড্রোন তৈরির জন্য একটি কুটির শিল্প তৈরি করছে।
একটি বাণিজ্যিক ড্রোনকে সামরিক প্রয়োগের মাধ্যমে যে তুলনামূলক সহজে রূপান্তর করা যায়, তা বাণিজ্যিক এবং সামরিক উদ্যোগের মধ্যে সীমারেখাও ঝাপসা করে। যদিও এই মুহুর্তে, মানুষ এখনও দায়িত্বে।
যুদ্ধের তথ্য সংগ্রহকারী সিস্টেমগুলিতেও একই রকম সমস্যা দেখা যায় যার দ্বৈত ব্যবহার রয়েছে, যেমন উপগ্রহ, মানবচালিত এবং মানবহীন বিমান, স্থল এবং সমুদ্রের তলদেশে রাডার এবং সেন্সর, যার সবকটিরই বাণিজ্যিক এবং সামরিক উভয় প্রয়োগ রয়েছে।
AI এই সমস্ত সিস্টেম থেকে বিপুল পরিমাণে ডেটা প্রক্রিয়া করতে পারে এবং তারপরে অর্থপূর্ণ প্যাটার্নগুলি সনাক্ত করতে পারে, এমন পরিবর্তনগুলি সনাক্ত করতে পারে যা মানুষ কখনও লক্ষ্য করতে পারে না। ইরাক এবং আফগানিস্তানের যুদ্ধে আমেরিকান বাহিনী কিছুটা বাধাগ্রস্ত হয়েছিল কারণ তারা প্রচুর পরিমাণে ডেটা প্রক্রিয়া করতে পারেনি।
এখনও, দূরবর্তীভাবে চালিত UAVগুলি স্বায়ত্তশাসিত টেকঅফ, অবতরণ এবং রুটিন ফ্লাইটের জন্য AI ব্যবহার করছে। মানব অপারেটরদের যা করার বাকি আছে তা হল আক্রমণের লক্ষ্যবস্তু নির্বাচন এবং যুদ্ধের মাঠে আক্রমণ চালানোর মতো কৌশলগত সিদ্ধান্তের উপর মনোনিবেশ করা।
AI এই সিস্টেমগুলিকে দ্রুত কাজ করার অনুমতি দেয়, এমন গতিতে পদক্ষেপ নির্ধারণ করে যা মানুষ সিদ্ধান্ত গ্রহণের প্রক্রিয়ার অংশ হলে খুব কমই সম্ভব। এখন পর্যন্ত, সিদ্ধান্ত গ্রহণের গতি যুদ্ধের সবচেয়ে গুরুত্বপূর্ণ দিক ছিল।
তবে, যদি AI সিস্টেমগুলি মানুষের বিরুদ্ধে মুখোমুখি হয়, তাহলে AI সর্বদা এগিয়ে আসবে। তবে, AI সিস্টেমগুলি মানবিক ফ্যাক্টরকে নির্মূল করার সম্ভাবনা সেইসব লোকদের আতঙ্কিত করে যারা সেলুলয়েডে একটি সর্বনাশের দৃশ্যপট বাস্তবে দেখতে চায় না।
স্বয়ংক্রিয় বনাম স্বায়ত্তশাসিত
“স্বায়ত্তশাসিত” শব্দটি এবং “স্বয়ংক্রিয়” শব্দটির মধ্যে একটি পার্থক্য করা দরকার। যদি আমরা ড্রোন নিয়ন্ত্রণ করি, তাহলে ড্রোনটি স্বয়ংক্রিয়। কিন্তু যদি ড্রোনটি নিজস্ব উদ্যোগে কাজ করার জন্য প্রোগ্রাম করা হয়, তাহলে আমরা বলব এটি স্বায়ত্তশাসিত। কিন্তু স্বায়ত্তশাসিত অস্ত্র কি প্রকৃত অস্ত্রকে বর্ণনা করে—অর্থাৎ, ড্রোনের উপর একটি যুদ্ধের ক্ষেপণাস্ত্র—নাকি ড্রোন নিজেই?
উদাহরণস্বরূপ, গ্লোবাল হক সামরিক UAV (ড্রোন) নিন। এটি স্বয়ংক্রিয়ভাবে পরিচালিত হয় কারণ এটি মাটিতে থাকা একজন অপারেটর দ্বারা নিয়ন্ত্রিত হয়, এবং তবুও যদি এটি মাটির সাথে যোগাযোগ হারিয়ে ফেলে, তবে গোল্ডেন হক নিজেই অবতরণ করতে পারে। এটি কি নিজেকে স্বয়ংক্রিয় বা স্বায়ত্তশাসিত করে তোলে? নাকি এটি উভয়ই?
সবচেয়ে গুরুত্বপূর্ণ প্রশ্ন হল সিস্টেমটি কি নিরাপত্তার জন্য গুরুত্বপূর্ণ? অর্থাৎ, এর অর্থ হল, মানব অপারেটরের হস্তক্ষেপ ছাড়াই কোনও লক্ষ্যবস্তুর বিরুদ্ধে অস্ত্র ব্যবহার করার সিদ্ধান্ত নেওয়ার ক্ষমতা কি এর আছে?
উদাহরণস্বরূপ, একটি ড্রোনের পক্ষে নিজেরাই একটি স্থির সামরিক লক্ষ্যবস্তুতে (যেমন শত্রু সামরিক ঘাঁটি) আঘাত করা সম্ভব কিন্তু কোনও মানব লক্ষ্যবস্তুতে নয় কারণ এই আশঙ্কায় যে নিরপরাধ বেসামরিক নাগরিকরা সমান্তরাল ক্ষতির কারণে আহত বা নিহত হতে পারে। অনেক দেশ ইতিমধ্যেই বাস্তব-সময়ের চিত্র সহ ড্রোন তৈরি করেছে যা পূর্ববর্তী ক্ষেত্রে স্বায়ত্তশাসিতভাবে কাজ করতে সক্ষম, কিন্তু যখন এটি মানুষের লক্ষ্যবস্তুর ক্ষেত্রে আসে তখন নয়।
ড্রোনই একমাত্র অস্ত্র নয় যা যুদ্ধের সময় স্বায়ত্তশাসিতভাবে কাজ করতে পারে। মার্কিন যুক্তরাষ্ট্র, চীন এবং ইউরোপের বেশ কয়েকটি দেশ সামরিক ব্যবস্থা তৈরি করছে যা আকাশে, স্থলে, জলে এবং জলের নীচে স্বায়ত্তশাসিতভাবে কাজ করতে পারে এবং বিভিন্ন মাত্রায় সাফল্য পেয়েছে।
মার্কিন যুক্তরাষ্ট্র, ইউরোপ এবং চীনে বিভিন্ন ধরণের স্বায়ত্তশাসিত হেলিকপ্টার তৈরি করা হচ্ছে যাতে একজন সৈনিক স্মার্টফোনের মাধ্যমে মাঠে তাদের পরিচালনা করতে পারে। ট্যাঙ্ক এবং পরিবহন যানবাহনের মতো স্বায়ত্তশাসিত স্থল যানবাহন এবং স্বায়ত্তশাসিত জলের নীচে যানবাহনও তৈরি হচ্ছে।
তবে, প্রায় সব ক্ষেত্রেই, এই প্রযুক্তিগুলি বিকাশকারী সংস্থাগুলি উন্নয়ন থেকে কার্যকরী বাস্তবায়নে লাফ দিতে লড়াই করছে।
এই প্রযুক্তিগুলিকে পরিপক্কতায় আনতে সাফল্যের অভাবের অনেক কারণ রয়েছে, যার মধ্যে রয়েছে খরচ এবং অপ্রত্যাশিত প্রযুক্তিগত সমস্যা, তবে সমানভাবে সমস্যাযুক্ত হল সাংগঠনিক এবং সাংস্কৃতিক বাধা। উদাহরণস্বরূপ, মার্কিন যুক্তরাষ্ট্র স্বায়ত্তশাসিত ইউএভিগুলিকে কার্যকরী অবস্থায় আনতে লড়াই করেছে, মূলত সাংগঠনিক অন্তর্দ্বন্দ্ব এবং মানবচালিত বিমানের পক্ষে অগ্রাধিকার দেওয়ার কারণে।
ভবিষ্যতের যোদ্ধা
ভবিষ্যতের যুদ্ধের ক্ষেত্রে, অভিজাত সৈন্যরা একটি হেড-আপ ডিসপ্লের উপর নির্ভর করতে পারে যা তাদের প্রচুর তথ্য সরবরাহ করে যা তাদের ব্যাকপ্যাকে বহন করা সুপার কম্পিউটারের মাধ্যমে সংগ্রহ করা হয় এবং একটি এআই ইঞ্জিন ব্যবহার করে রুট করা হয়।
এআই এর মাধ্যমে, তথ্য তাৎক্ষণিকভাবে বিশ্লেষণ করা হয়, সুবিন্যস্ত করা হয় এবং হেড-আপ ডিসপ্লেতে ফিরিয়ে আনা হয়। এটি মার্কিন প্রতিরক্ষা বিভাগের কর্মকর্তাদের দ্বারা উপস্থাপিত অনেক সম্ভাব্য পরিস্থিতির মধ্যে একটি। পেন্টাগন একটি তুলনামূলক সহজ ধারণা গ্রহণ করেছে: “হাইপার-সক্ষম অপারেটর”।
এই ধারণার উদ্দেশ্য হল যুদ্ধের ক্ষেত্রে বিশেষ বাহিনীকে “জ্ঞানীয় ওভারম্যাচ” দেওয়া, অথবা “প্রতিপক্ষের চেয়ে দ্রুত তথ্যবহুল সিদ্ধান্ত নিয়ে পরিস্থিতির উপর আধিপত্য বিস্তার করার ক্ষমতা”। অন্য কথায়, তারা তাদের শত্রুর চেয়ে দ্রুত প্রাপ্ত তথ্যের উপর ভিত্তি করে সিদ্ধান্ত নিতে সক্ষম হবে।
সেনাবাহিনীর জন্য সিদ্ধান্ত গ্রহণের মডেলটিকে “OODA লুপ” বলা হয় যার অর্থ “পর্যবেক্ষণ, অভিমুখীকরণ, সিদ্ধান্ত নেওয়া, কাজ করা।” এটি এমন কম্পিউটার ব্যবহার করে আসবে যা সমস্ত প্রাসঙ্গিক ডেটা নিবন্ধন করে এবং হেড-আপ ডিসপ্লের মতো একটি সহজ ইন্টারফেসের মাধ্যমে কার্যকর তথ্যে পরিণত করে।
এই ডিসপ্লেতে একটি “ভিজ্যুয়াল এনভায়রনমেন্ট ট্রান্সলেশন” সিস্টেমও থাকবে যা বিদেশী ভাষার ইনপুটগুলিকে রিয়েল টাইমে স্পষ্ট ইংরেজিতে রূপান্তর করার জন্য ডিজাইন করা হয়েছে। VITA নামে পরিচিত, এই সিস্টেমটিতে ভিজ্যুয়াল এনভায়রনমেন্ট ট্রান্সলেশন প্রচেষ্টা এবং ভয়েস-টু-ভয়েস ট্রান্সলেশন ক্ষমতা উভয়ই অন্তর্ভুক্ত রয়েছে। ট্রান্সলেশন ইঞ্জিন অপারেটরকে “কার্যকর কথোপকথনে জড়িত হতে দেবে যেখানে এটি আগে অসম্ভব ছিল।”
VITA, যা বহুমুখী বুদ্ধিমান অনুবাদ সহকারীর জন্য ব্যবহৃত হয়, ব্যবহারকারীদের রাশিয়ান, ইউক্রেনীয় এবং চীনা ভাষায় দক্ষতা প্রদান করে, যার মধ্যে ম্যান্ডারিন, একটি চীনা উপভাষাও অন্তর্ভুক্ত। অপারেটররা তাদের স্মার্টফোন ব্যবহার করে বিদেশী দেশের রাস্তা স্ক্যান করতে পারে, উদাহরণস্বরূপ, এবং তাৎক্ষণিকভাবে রিয়েল-টাইমে রাস্তার চিহ্নগুলির অনুবাদ পেতে পারে।
প্রতিপক্ষের AI সিস্টেম
সামরিক বিশেষজ্ঞরা প্রতিপক্ষের আক্রমণগুলিকে চারটি বিভাগে ভাগ করেন: ফাঁকি দেওয়া, অনুমান করা, বিষক্রিয়া এবং নিষ্কাশন। এই ধরণের আক্রমণ সহজেই সম্পন্ন করা যায় এবং প্রায়শই কম্পিউটিং দক্ষতার প্রয়োজন হয় না।
ফাঁকি দেওয়া আক্রমণে জড়িত শত্রু সনাক্তকরণ এড়াতে একটি AI অস্ত্রকে প্রতারিত করার চেষ্টা করতে পারে – উদাহরণস্বরূপ, যুদ্ধের একটি সাইবার আক্রমণ লুকিয়ে রাখা, অথবা একটি সেন্সরকে বোঝানো যে একটি ট্যাঙ্ক একটি স্কুল বাস। এর জন্য কৌশলগত টেপ স্থাপনের মতো একটি নতুন ধরণের AI ছদ্মবেশ তৈরির প্রয়োজন হতে পারে, যা AI কে বোকা বানাতে পারে।
ইনফারেন্স আক্রমণ তখন ঘটে যখন কোনও প্রতিপক্ষ এমন একটি AI সিস্টেম সম্পর্কে তথ্য সংগ্রহ করে যা ফাঁকি দেওয়ার কৌশলগুলিকে অনুমতি দেয়। প্রশিক্ষণের সময় বিষক্রিয়াজনিত আক্রমণ AI সিস্টেমগুলিকে লক্ষ্য করে, সামরিক সরঞ্জামগুলিকে প্রশিক্ষণের জন্য ব্যবহৃত ডেটাসেটগুলিতে অ্যাক্সেসে হস্তক্ষেপ করে – উদাহরণস্বরূপ, যুদ্ধের লক্ষ্যবস্তু সিস্টেমগুলিকে প্রতারণা করার জন্য যানবাহনের চিত্রগুলিকে ভুল লেবেল করা, অথবা আসন্ন সিস্টেম ব্যর্থতাকে নিয়মিত অপারেশন হিসাবে শ্রেণীবদ্ধ করার জন্য ডিজাইন করা রক্ষণাবেক্ষণ ডেটা হেরফের করা।
এক্সট্রাকশন আক্রমণগুলি AI এর ইন্টারফেসের অ্যাক্সেসকে কাজে লাগিয়ে সিস্টেমের একটি সমান্তরাল মডেল তৈরি করার জন্য AI এর ক্রিয়াকলাপ সম্পর্কে যথেষ্ট পরিমাণে জানতে পারে। যদি AI সিস্টেমগুলি অননুমোদিত ব্যবহারকারীদের কাছ থেকে সুরক্ষিত না থাকে, তাহলে প্রতিপক্ষের ব্যবহারকারীরা সেই সিস্টেমগুলির দ্বারা নেওয়া সিদ্ধান্তগুলি ভবিষ্যদ্বাণী করতে পারে এবং সেই ভবিষ্যদ্বাণীগুলিকে তাদের সুবিধার জন্য ব্যবহার করতে পারে।
উদাহরণস্বরূপ, তারা ভবিষ্যদ্বাণী করতে পারে যে একটি AI-নিয়ন্ত্রিত মানবহীন সিস্টেম কীভাবে নির্দিষ্ট ভিজ্যুয়াল এবং ইলেক্ট্রোম্যাগনেটিক উদ্দীপনার প্রতি প্রতিক্রিয়া জানাবে এবং তারপরে তার রুট এবং আচরণ পরিবর্তন করবে।
প্রতারণামূলক আক্রমণ ক্রমশ সাধারণ হয়ে উঠছে, যেমনটি চিত্র শ্রেণীবদ্ধকরণ অ্যালগরিদমের ক্ষেত্রে দেখা যায় যেখানে প্রতারণা করে এমন ছবি বোঝা যায় যা সেখানে নেই, ছবির অর্থ বিভ্রান্ত করে, এবং উদাহরণস্বরূপ, কচ্ছপকে রাইফেল ভেবে ভুল করে। একইভাবে, স্বায়ত্তশাসিত যানবাহনগুলিকে ভুল লেনে ঘুরতে বাধ্য করা হতে পারে অথবা স্টপ সাইন ব্যবহার করে যুদ্ধের গতি বাড়াতে হতে পারে।
২০১৯ সালে, চীন একটি নতুন সামরিক কৌশল ঘোষণা করে, যার নাম ইন্টেলিজেন্টাইজড ওয়ারফেয়ার, যা AI ব্যবহার করে। চীনা পিপলস লিবারেশন আর্মির কর্মকর্তারা বলেছেন তাদের বাহিনী AI ব্যবহার করে মার্কিন সেনাবাহিনীকে ছাড়িয়ে যেতে পারে। তাদের একটি উদ্দেশ্য হল এই উচ্চ-প্রযুক্তির ধরণের যুদ্ধ ব্যবহার করে তাইওয়ানকে প্রচলিত যুদ্ধ না করেই তাদের নিয়ন্ত্রণে আনা।
যাইহোক, ইন্টেলিজেন্টাইজড ওয়ারফেয়ারের উপর চীনা গবেষণার মধ্যে মাত্র কয়েকটি বন্দুককে AI দিয়ে প্রতিস্থাপনের উপর দৃষ্টি নিবদ্ধ করেছে। অন্যদিকে, চীনা কৌশলবিদরা সরাসরি শত্রুর ইচ্ছা নিয়ন্ত্রণ করার তাদের উদ্দেশ্যের কোনও গোপনীয়তা রাখেননি।
এর মধ্যে মার্কিন রাষ্ট্রপতি, কংগ্রেসের সদস্য, যোদ্ধা কমান্ডার এবং নাগরিকরাও অন্তর্ভুক্ত থাকবেন। “গোয়েন্দা আধিপত্য” – যা জ্ঞানীয় যুদ্ধ বা “মস্তিষ্কের নিয়ন্ত্রণ” নামেও পরিচিত – বুদ্ধিমত্তা যুদ্ধে নতুন যুদ্ধের ক্ষেত্র হিসাবে দেখা হয়, যা AI কে বেশিরভাগ আমেরিকান এবং মিত্র আলোচনার কল্পনার চেয়ে অনেক আলাদা ব্যবহারে পরিণত করে।
চীনের সামরিক উন্নয়নের উপর পেন্টাগনের ২০২২ সালের প্রতিবেদন অনুসারে, পিপলস লিবারেশন আর্মিকে “মার্কিন অপারেশনাল সিস্টেমের মূল দুর্বলতাগুলি দ্রুত সনাক্ত করতে এবং তারপরে সেই দুর্বলতার বিরুদ্ধে সুনির্দিষ্ট আক্রমণ চালানোর জন্য বিভিন্ন ক্ষেত্র জুড়ে যৌথ বাহিনীকে একত্রিত করার জন্য” এআই-সক্ষম সেন্সর এবং কম্পিউটার নেটওয়ার্ক ব্যবহার করার জন্য প্রশিক্ষণ এবং সজ্জিত করা হচ্ছে।
প্রতিপক্ষের মন নিয়ন্ত্রণ করা কেবল তাদের আশেপাশের সম্পর্কে কারও ধারণাকেই নয়, শেষ পর্যন্ত তাদের সিদ্ধান্তকেও প্রভাবিত করতে পারে। পিপলস লিবারেশন আর্মির জন্য, জ্ঞানীয় যুদ্ধক্ষেত্র অন্যান্য সংঘাতের ক্ষেত্রগুলির সমান, যা আকাশ, স্থল এবং সমুদ্র। এই ক্ষেত্রে, সোশ্যাল মিডিয়াকে একটি গুরুত্বপূর্ণ যুদ্ধের ক্ষেত্র হিসাবে বিবেচনা করা হয়।
রাশিয়াও নিজস্ব এআই ক্ষমতা বিকাশ করছে। ২০১৪ সালের প্রথম দিকে, রাশিয়ানরা মস্কোতে একটি জাতীয় প্রতিরক্ষা নিয়ন্ত্রণ কেন্দ্র উদ্বোধন করে, যা বিশ্বব্যাপী হুমকি মূল্যায়ন এবং প্রতিক্রিয়া জানাতে একটি কেন্দ্রীভূত কমান্ড পোস্ট। কেন্দ্রটি একাধিক উৎস থেকে শত্রুর পদক্ষেপ সম্পর্কে তথ্য সংগ্রহ করার এবং সম্ভাব্য প্রতিক্রিয়া সম্পর্কে সিনিয়র অফিসারদের নির্দেশনা প্রদানের জন্য ডিজাইন করা হয়েছিল।
রাশিয়া ঘোষণা করেছে এটি অবশেষে বিশ্ব পরিচালনা করতে সক্ষম একটি এআই সিস্টেম তৈরি করবে। রাশিয়ানরা ইতিমধ্যেই ইউক্রেনে AI ব্যবহার করছে যাতে তারা নেভিগেশনের জন্য নির্ভরশীল উপগ্রহের সাথে ইউক্রেনীয় ড্রোন সংযোগকারী ওয়্যারলেস সিগন্যাল আটকে দেয়, যার ফলে মেশিনগুলি তাদের পথ হারিয়ে ফেলে এবং পৃথিবীতে পড়ে যায়।
রাশিয়ান প্রতিরক্ষা মন্ত্রণালয় (MOD) আকাশ, সামুদ্রিক এবং স্থল ক্ষেত্রগুলির জন্য অ-ক্রু সিস্টেমগুলির জন্য AI সিস্টেমগুলি কীভাবে তৈরি করা যেতে পারে তা অনুসন্ধান করেছে। একই সাথে, অন্তত স্বল্পমেয়াদে, সরকারী নীতি এই বিশ্বাসের উপর ভিত্তি করে তৈরি যে মানুষকে দৃঢ়ভাবে লুপে থাকতে হবে।
ইতিমধ্যে, রাশিয়ানরা কমান্ড, নিয়ন্ত্রণ এবং যোগাযোগের জন্য AI কে একটি প্রক্রিয়া হিসাবে ব্যবহার করে UAV ক্ষমতা উন্নত করার চেষ্টা করছে। MOD বর্তমান “ডিজিটাল” যুদ্ধ প্রযুক্তি এবং সিস্টেম বিকাশের একটি প্রাকৃতিক বিবর্তন হিসাবে তথ্য সংগ্রহ এবং বিশ্লেষণের জন্য AI ব্যবহারের উপরও জোর দেয়।
“Raven Sentry”: আফগানিস্তানে মার্কিন যুদ্ধে AI
মার্কিন গোয়েন্দা সংস্থা কর্তৃক যুদ্ধক্ষেত্রে AI এর ব্যবহার, যদিও সংক্ষিপ্ত, আশাব্যঞ্জক ফলাফল দেখিয়েছে। “র্যাভেন সেন্ট্রি”, সিলিকন ভ্যালির বিশেষজ্ঞদের সহায়তায় আমেরিকান গোয়েন্দা কর্মকর্তাদের একটি দল (যা “নার্ড লকার” নামে পরিচিত) ২০১৯ সালে চালু করে একটি এআই টুল, যা বিদ্রোহীদের আক্রমণের পূর্বাভাস দেওয়ার জন্য তৈরি করা হয়েছিল।
এআই-এর প্রাথমিক ব্যবহার এমন এক সময়ে শুরু হয়েছিল যখন মার্কিন ঘাঁটি বন্ধ হয়ে যাচ্ছিল, সৈন্য সংখ্যা হ্রাস পাচ্ছিল এবং গোয়েন্দা সংস্থানগুলি অন্যত্র সরিয়ে নেওয়া হচ্ছিল। র্যাভেন সেন্ট্রি ওপেন-সোর্স ডেটার উপর নির্ভর করেছিলেন।
“আমরা লক্ষ্য করেছি বাণিজ্যিক উপগ্রহের সংখ্যা বৃদ্ধি এবং ইন্টারনেটে সংবাদ প্রতিবেদনের প্রাপ্যতা, সোশ্যাল মিডিয়া পোস্টিং এবং বিপুল সদস্যের সাথে মেসেজিং অ্যাপের বিস্তার একটি সুযোগ তৈরি করেছে,” বলেছেন কর্নেল থমাস স্পাহর, আফগানিস্তানের কাবুলে অবস্থিত রেজোলিউট সাপোর্ট জে২ গোয়েন্দা মিশনের প্রধান কর্মী।
এআই টুলটি ৪০ বছর আগের আফগানিস্তানে বিদ্রোহী কার্যকলাপের উপর ভিত্তি করে ঐতিহাসিক নিদর্শনগুলিও ব্যবহার করেছে, যার মধ্যে ১৯৮০-এর দশকে দেশটিতে সোভিয়েত দখল অন্তর্ভুক্ত ছিল। পরিবেশগত কারণগুলিও বিবেচনা করা হয়েছিল।
“ঐতিহাসিকভাবে, বিদ্রোহীরা বছরের নির্দিষ্ট দিনগুলিতে বা ছুটির দিনে অথবা নির্দিষ্ট আবহাওয়া এবং আলোকসজ্জার পরিস্থিতিতে আক্রমণ করে,” স্পাহর উল্লেখ করেন। তিনি আরও বলেন, “এআই-এর সৌন্দর্য হল এটি সেই টেমপ্লেটটি আপডেট করতে থাকে। মেশিনটি আরও তথ্য শোষণ করার সাথে সাথে শিখবে।”
২০২১ সালে (আফগানিস্তান থেকে মার্কিন সেনা প্রত্যাহারের সাথে সাথে) এর ধ্বংসের আগে, র্যাভেন সেন্ট্রি তার সম্ভাব্যতা প্রদর্শন করেছিলেন, ৭০% নির্ভুলতার সাথে বিদ্রোহী আক্রমণের পূর্বাভাস দিয়েছিলেন। এআই টুলটি ভবিষ্যদ্বাণী করেছিল তাপমাত্রা ৪ ডিগ্রি সেলসিয়াসের উপরে (অথবা ৩৯.২ ডিগ্রি ফারেনহাইট) থাকলে, যখন চন্দ্রের আলোকসজ্জা ৩০% এর নিচে থাকে এবং যখন বৃষ্টিপাত হয় না তখন আক্রমণ হওয়ার সম্ভাবনা বেশি থাকে।
স্পাহর ফলাফল নিয়ে সন্তুষ্ট ছিলেন: “আমরা যাচাই করেছি যে বাণিজ্যিকভাবে উত্পাদিত, অশ্রেণীবদ্ধ তথ্য ভবিষ্যদ্বাণীমূলক বুদ্ধিমত্তা প্রদান করতে পারে।”
ইউক্রেন AI পরীক্ষার ক্ষেত্র হিসেবে
২০২২ সালে রাশিয়ার আক্রমণ শুরু হওয়ার পর থেকে, ইউক্রেন যুদ্ধক্ষেত্রে AI পরীক্ষার ক্ষেত্র হয়ে উঠেছে। বন্দুকধারী এবং অপ্রতিরোধ্য, ইউক্রেনীয় বাহিনী ইম্প্রোভাইজেশন, জেরি-রিগিং অফ-দ্য-শেল্ফ ডিভাইসগুলিকে প্রাণঘাতী স্বায়ত্তশাসিত অস্ত্রে রূপান্তরিত করার আশ্রয় নিয়েছে। রাশিয়ান আক্রমণকারীরাও AI ব্যবহার করেছে, সাইবার আক্রমণ এবং GPS-জ্যামিং সিস্টেম পরিচালনা করছে।
ইউক্রেনের সেকার স্কাউট কোয়াডকপ্টারগুলি “নিজেদের দ্বারা 64 ধরণের রাশিয়ান ‘সামরিক বস্তু’ খুঁজে পেতে, সনাক্ত করতে এবং আক্রমণ করতে পারে।” এই ড্রোনগুলি স্বায়ত্তশাসিতভাবে পরিচালনা করার জন্য ডিজাইন করা হয়েছে, এবং ইউক্রেনীয় বাহিনী যে অন্যান্য ড্রোন মোতায়েন করেছে তার বিপরীতে, রাশিয়া সেগুলি জ্যাম করতে পারে না।
অনলাইনে পাওয়া কোড এবং হার্ডওয়্যার স্টোর থেকে সহজেই পাওয়া রাস্পবেরি পাই এর মতো শখের কম্পিউটার ব্যবহার করে, ইউক্রেনীয়রা উদ্ভাবনী কিলার রোবট তৈরি করতে সক্ষম। স্মার্টফোন দিয়ে চালানো যায় এমন ড্রোন ছাড়াও, ইউক্রেনীয়রা প্লেস্টেশন বা ট্যাবলেট দ্বারা ব্যবহৃত একই কন্ট্রোলার দিয়ে পরিচালিত স্বায়ত্তশাসিত লক্ষ্যবস্তু সহ একটি বন্দুক টারেট তৈরি করেছে।
পিক্সার রোবট WALL-E এর সাথে সাদৃশ্যপূর্ণ বলে Wolly নামক এই বন্দুকটি ১,০০০ মিটার (৩,২৮০ ফুট) দূরের লক্ষ্যবস্তুতে স্বয়ংক্রিয়ভাবে লক করতে পারে এবং দ্রুত একটি বিস্তৃত এলাকা কভার করার জন্য পূর্ব-প্রোগ্রাম করা অবস্থানের মধ্যে স্থানান্তর করতে পারে।
নির্মাতারা চলমান লক্ষ্যবস্তুতে আঘাত করতে সক্ষম একটি বন্দুকও তৈরি করছে। দিগন্তের উপর দিয়ে আসা লক্ষ্যবস্তুগুলি স্বয়ংক্রিয়ভাবে সনাক্ত করতে পারে। বন্দুকটি স্বয়ংক্রিয়ভাবে লক্ষ্যবস্তু করে এবং লক্ষ্য করে; অপারেটরের জন্য যা করার বাকি আছে তা হল বোতাম টিপুন এবং গুলি করুন।
অনেক ইউক্রেনীয় ড্রোন, যা দেখতে ওয়ালমার্টে পাওয়া যায় এমন ড্রোনের মতো, তাদের ফার্স্ট পারসন ভিউ (FPV) ড্রোন বলা হয়। প্রতি ঘন্টায় ১০০ মাইল উড়তে সক্ষম, FPV ড্রোনগুলিতে চারটি প্রপেলার এবং একটি মাউন্ট করা ক্যামেরা রয়েছে যা তাদের ফ্লাইটের ফুটেজ অপারেটরদের কাছে ফেরত পাঠাতে ওয়্যারলেস ব্যবহার করে।
বোমা সহ, একটি FPV কে এমন একটি অস্ত্রে রূপান্তরিত করা যেতে পারে যা একটি ট্যাঙ্ক ধ্বংস করতে পারে। এগুলি সস্তাও; একটি প্রস্তুতকারক, Vyriy, প্রতিটি $400 চার্জ করে, লক্ষ লক্ষ ডলার মূল্যের একটি ট্যাঙ্ক নিষ্ক্রিয় করার জন্য একটি ছোট মূল্য। ভিরি নামটি স্লাভিক লোককাহিনীর একটি পৌরাণিক ভূমি থেকে এসেছে।
যদি একটি কামিকাজে ড্রোন ভালো হয়, তবে কয়েক ডজন ড্রোনই ভালো কারণ তাদের সংখ্যা যত বেশি হবে, তাদের লক্ষ্যবস্তুতে পৌঁছানোর সম্ভাবনা তত বেশি। প্রকৃতিতে, পিঁপড়ের একটি ঝাঁক একটি একক জীবন্ত প্রাণীর মতো আচরণ করে, কাজটি খাদ্য সংগ্রহ করা হোক বা বাসা তৈরি করা হোক।
একইভাবে, স্বায়ত্তশাসিত ড্রোনের একটি ঝাঁক একটি একক জীবের মতো কাজ করতে পারে – মানুষের প্রয়োজন নেই – একটি মিশন পরিচালনা করে, কতজন অক্ষম বা মাটিতে বিধ্বস্ত হোক বা মাটি থেকে যোগাযোগ ব্যাহত হোক বা বন্ধ হোক।
যদিও মানুষ এখনও “লুপের মধ্যে” রয়েছে, তবুও এই অস্ত্রগুলিকে সম্পূর্ণরূপে স্বায়ত্তশাসিত করা যেতে পারে। অন্য কথায়, তারা মানুষের হস্তক্ষেপ ছাড়াই কোন লক্ষ্যবস্তুতে আঘাত করবে তা নির্ধারণ করতে পারে।
এটি এমন নয় যে ইউক্রেন কোনও প্রযুক্তিগত অভিজ্ঞতা ছাড়াই AI অস্ত্র গ্রহণ করেছে। নিউ ইয়র্ক টাইমসের প্রতিবেদক পল মোজারের ভাষায়, “ইউক্রেন দীর্ঘদিন ধরে বিশ্বব্যাপী প্রযুক্তি শিল্পের জন্য একটি ব্যাক অফিসের মতো।”
দেশে ইতিমধ্যেই কোডার এবং দক্ষ বিশেষজ্ঞদের একটি বিশাল দল ছিল যারা জরুরি পরিস্থিতিতে বেসামরিক ব্যবহার (যেমন একটি ডেটিং অ্যাপ) থেকে সামরিক উদ্দেশ্যে রূপান্তর করতে সক্ষম হয়েছিল।
মোজারের প্রতিবেদন অনুসারে: “তারা যা করছে তা হল তারা চারপাশে থাকা মৌলিক কোডগুলি গ্রহণ করছে, এটিকে যুদ্ধের কিছু নতুন তথ্যের সাথে একত্রিত করছে এবং এটিকে সম্পূর্ণ ভিন্ন কিছুতে পরিণত করছে, যা একটি অস্ত্র।”
বাস্তবতা হল, “বড় প্রতিরক্ষা ক্ষেত্রে অনেক দুর্দান্ত, উত্তেজনাপূর্ণ জিনিস ঘটছে,” যুদ্ধ এবং প্রযুক্তি সম্পর্কে লেখা লেখক পি.ডব্লিউ. সিঙ্গার বলেছেন। “বড় প্রযুক্তি সিলিকন ভ্যালি কোম্পানিগুলিতে অনেক দুর্দান্ত, উত্তেজনাপূর্ণ জিনিস ঘটছে। ছোট স্টার্টআপগুলিতে অনেক দুর্দান্ত, উত্তেজনাপূর্ণ জিনিস ঘটছে।”
সেই ছোট স্টার্টআপগুলির মধ্যে একটি হল আন্দুরিল। ফেসবুকের (এখন মেটা) কাছে জনপ্রিয় ভার্চুয়াল রিয়েলিটি হেডসেট ওকুলাস বিক্রি করার পর, ত্রিশের দশকের গোড়ার দিকে একজন উদ্যোক্তা পামার লাকি, একটি এআই অস্ত্র কোম্পানি খুঁজে পান যা ইউক্রেনে ড্রোন সরবরাহ করছে।
“ইউক্রেন শেখার জন্য খুবই চ্যালেঞ্জিং পরিবেশ,” তিনি বলেন। “আমি ইউক্রেনীয়দের কাছ থেকে বিভিন্ন অনুমান শুনেছি যে যেকোনো ড্রোনের আয়ুষ্কাল সাধারণত প্রায় চার সপ্তাহ থাকে। প্রশ্ন হল, “আপনি কি সাড়া দিতে এবং মানিয়ে নিতে পারেন?” “দ্য লর্ড অফ দ্য রিংস”-এর একটি তরবারির নামে নামকরণ করা আন্দুরিল, মার্কিন যুক্তরাষ্ট্র সহ দশটি দেশের কাছে তার ডিভাইস বিক্রি করেছে।
“আমার বিশ্বাস ছিল যে প্রধান প্রতিরক্ষা কোম্পানিগুলির কৃত্রিম বুদ্ধিমত্তা, স্বায়ত্তশাসন, রোবোটিক্সের মতো জিনিসগুলিতে বিনিয়োগ করার জন্য সঠিক প্রতিভা বা সঠিক প্রণোদনা কাঠামো ছিল না,” লাকি বলেন। তার কোম্পানির ড্রোন, যার নাম ALTIUS, একটি নল থেকে গুলি করে নিজেকে প্রকাশ করার জন্য তৈরি করা হয়েছে, এর ডানা এবং লেজ প্রসারিত করা হয়েছে; তারপর, একটি প্রপেলার দিয়ে স্টিয়ারিং করে, এটি 30 পাউন্ড ওজনের ওয়ারহেড বহন করতে সক্ষম বিমানের মতো কাজ করে।
লাকি বিশ্বাস করেন তার পদ্ধতির ফলে ম্যাকডোনেল ডগলাসের মতো ঐতিহ্যবাহী প্রতিরক্ষা ঠিকাদারদের তুলনায় কম সময়ে এবং কম খরচে আরও বেশি AI অস্ত্র তৈরি করা হবে।
২০১৭ সালে প্রতিষ্ঠিত আন্দুরিল, ডাইভ-এলডিও তৈরি করছে, একটি ড্রোন যা সমুদ্র উপকূলীয় এবং গভীর জলে জরিপের জন্য ব্যবহার করা হবে। “এটি একটি স্বায়ত্তশাসিত ডুবো যান যা খুব, খুব দীর্ঘ দূরত্ব অতিক্রম করতে সক্ষম, প্রায় ৬,০০০ মিটার (প্রায় ২০,০০০ ফুট) গভীরতায় ডুব দিতে সক্ষম, যা প্রায় যেকোনো সমুদ্রের তলদেশে যাওয়ার জন্য যথেষ্ট গভীর,” লাকি বলেন।
ইউক্রেন ইতিমধ্যেই নিজস্ব সমুদ্র ড্রোন তৈরি করছে – মূলত বিস্ফোরক ভর্তি জেট স্কি – যা কৃষ্ণ সাগরে রাশিয়ান নৌবাহিনীর মারাত্মক ক্ষতি করেছে।
আন্দুরিলের সিইও ব্রায়ান শিম্পফ স্বীকার করেছেন ইউক্রেনে আন্দুরিলের ড্রোন প্রবর্তনের ফলে এখনও কোনও উল্লেখযোগ্য ফলাফল আসেনি, যদিও তিনি বিশ্বাস করেন এটি পরিবর্তন হবে। একবার এগুলি চালু হয়ে গেলে, এই ড্রোনগুলির জন্য স্থলভাগে কোনও অপারেটরের কাছ থেকে নির্দেশনার প্রয়োজন হবে না, যার ফলে রাশিয়ানদের জন্য তাদের সংকেত আটকে দিয়ে ধ্বংস বা নিষ্ক্রিয় করা কঠিন হয়ে পড়বে।
“জাহাজে স্বায়ত্তশাসনই এটিকে আলাদা করে তোলে,” লাকি বলেন। “এটি কোনও রিমোট-কন্ট্রোলড প্লেন নয়। এতে এমন একটি মস্তিষ্ক আছে যা লক্ষ্যবস্তু খুঁজে বের করতে, লক্ষ্যবস্তু শনাক্ত করতে এবং সেই লক্ষ্যবস্তুতে উড়তে সক্ষম।” তবে, ইউক্রেনীয়রা কোনও উদ্ভাবনী অস্ত্র ব্যবস্থা তৈরি করে, রাশিয়ানরা এমন একটি সিস্টেম দিয়ে এর মোকাবিলা করে যা এটিকে অকেজো করে তোলে।
“কয়েক মাস আগেও যে প্রযুক্তিগুলি সত্যিই ভালভাবে কাজ করেছিল এখন সেগুলি ক্রমাগত পরিবর্তন করতে হচ্ছে,” হুভার ইনস্টিটিউশনের ফেলো হিসেবে সামরিক প্রযুক্তি অধ্যয়নরত জ্যাকলিন স্নাইডার বলেন, “এবং আমি যে বড় পার্থক্যটি দেখতে পাচ্ছি তা হল সফ্টওয়্যার পরিবর্তনের হার পরিবর্তন করে।”
গাজায় যুদ্ধ: ল্যাভেন্ডার
গাজায় তাদের আক্রমণের সময়, ইসরায়েলি প্রতিরক্ষা বাহিনী (IDF) হামাস কর্মীদের লক্ষ্য করে কৃত্রিম বুদ্ধিমত্তা দ্বারা সমর্থিত একটি প্রোগ্রামের উপর ক্রমবর্ধমানভাবে নির্ভরশীল হয়েছে, যার ফলে সমস্যাজনক পরিণতি ঘটেছে।
+972 ম্যাগাজিন (একটি ইসরায়েলি-ফিলিস্তিনি প্রকাশনা) এবং হিব্রু ভাষার সংবাদ সাইট লোকাল কলের এপ্রিল ২০২৪ সালের প্রতিবেদন অনুসারে, IDF “ল্যাভেন্ডার” নামে পরিচিত একটি প্রোগ্রাম বাস্তবায়ন করছে, যার সামরিক অভিযানের উপর প্রভাব এতটাই গভীর যে গোয়েন্দা কর্মকর্তারা মূলত AI মেশিনের ফলাফলগুলিকে “মানুষের সিদ্ধান্তের মতো” বিবেচনা করেছেন।
ল্যাভেন্ডারটি অভিজাত ইউনিট ৮২০০ দ্বারা তৈরি করা হয়েছিল, যা মার্কিন যুক্তরাষ্ট্রের জাতীয় নিরাপত্তা সংস্থা বা যুক্তরাজ্যের সরকারি যোগাযোগ সদর দপ্তরের সাথে তুলনীয়।
ইসরায়েলি সরকার ল্যাভেন্ডারকে এর ব্যবহারিকতা এবং দক্ষতার জন্য সমর্থন করেছে। “ইজরায়েলি সেনাবাহিনী মানব অপারেটরদের সিদ্ধান্ত গ্রহণের প্রক্রিয়া বৃদ্ধির জন্য AI ব্যবহার করে। এই ব্যবহার আন্তর্জাতিক মানবিক আইন অনুসারে, যা আধুনিক সশস্ত্র বাহিনী ১১ সেপ্টেম্বর, ২০০১ সাল থেকে অনেক অসম যুদ্ধে প্রয়োগ করেছে,” টিএমসি অ্যাসার ইনস্টিটিউটের গবেষক এবং বিঘ্নকারী প্রযুক্তি এবং সামরিক আইনের মধ্যে ছেদ করার বিশেষজ্ঞ ম্যাগদা পাচোলস্কা বলেন।
ল্যাভেন্ডার তৈরিতে ব্যবহৃত জঙ্গিদের শনাক্ত করার জন্য সংগৃহীত তথ্য গাজা উপত্যকার ২.৩ মিলিয়নেরও বেশি বাসিন্দা থেকে এসেছে, যা ২০২৩ সালে গাজা আক্রমণের আগে তীব্র নজরদারির অধীনে ছিল।
প্রতিবেদনে বলা হয়েছে ৩৭,০০০ ফিলিস্তিনিকে সন্দেহভাজন জঙ্গি হিসেবে মনোনীত করা হয়েছিল যাদের সম্ভাব্য লক্ষ্যবস্তু হিসেবে নির্বাচিত করা হয়েছিল। ল্যাভেন্ডারের হত্যা তালিকা আক্রমণের আগে প্রস্তুত করা হয়েছিল, যা ৭ অক্টোবর, ২০২৩ সালে হামাসের আক্রমণের প্রতিক্রিয়ায় চালু করা হয়েছিল, যার ফলে প্রায় ১,২০০ জন নিহত এবং প্রায় ২৫০ জনকে ইসরায়েল থেকে জিম্মি করা হয়েছিল।
ল্যাভেন্ডার তালিকার ব্যক্তিদের গতিবিধি ট্র্যাক করার জন্য একটি সম্পর্কিত AI প্রোগ্রামের নাম ছিল “ড্যাডি কোথায়?” +972 ম্যাগাজিনের প্রতিবেদনের সূত্রগুলি জানিয়েছে প্রাথমিকভাবে, “কেন মেশিনটি (লক্ষ্যবস্তুগুলির) এই পছন্দগুলি বেছে নিয়েছে তা পুঙ্খানুপুঙ্খভাবে পরীক্ষা করার বা সেগুলি যে কাঁচা গোয়েন্দা তথ্যের উপর ভিত্তি করে তৈরি করা হয়েছিল তা পরীক্ষা করার কোনও প্রয়োজন ছিল না।”
এই সূত্রগুলি জানিয়েছে দায়িত্বে থাকা কর্মকর্তারা বোমা হামলার অনুমোদন দেওয়ার আগে মেশিনের সিদ্ধান্তের জন্য “রাবার স্ট্যাম্প” হিসাবে কাজ করেছিলেন। +972 এর সাথে কথা বলা একজন গোয়েন্দা কর্মকর্তা স্বীকার করেছেন: “এই পর্যায়ে আমি প্রতিটি লক্ষ্যবস্তুর জন্য 20 সেকেন্ড বিনিয়োগ করতাম এবং প্রতিদিন কয়েক ডজন সেগুলি করতাম। অনুমোদনের স্ট্যাম্প ছাড়াও একজন মানুষ হিসেবে আমার কোনও অতিরিক্ত মূল্য ছিল না। এটি অনেক সময় সাশ্রয় করেছিল।”
এটি ইতিমধ্যেই জানা ছিল যে ল্যাভেন্ডার প্রোগ্রামটি 10 শতাংশ ক্ষেত্রে ত্রুটি করেছে, যার অর্থ লক্ষ্যবস্তু হিসাবে নির্বাচিত ব্যক্তিদের একটি অংশের হামাস বা অন্য কোনও জঙ্গি গোষ্ঠীর সাথে কোনও সম্পর্ক থাকতে পারে না। সাধারণত রাতে হামলাগুলি ঘটে যখন লক্ষ্যবস্তু ব্যক্তিরা বাড়িতে থাকার সম্ভাবনা বেশি ছিল, যা তাদের পরিবারের সদস্যদের হত্যা বা আহত করার ঝুঁকি তৈরি করেছিল।
হামাস বা ইসলামিক জিহাদের সশস্ত্র শাখার সাথে তার ঘনিষ্ঠতার উপর ভিত্তি করে প্রতিটি ব্যক্তির জন্য ১ থেকে ১০০ পর্যন্ত একটি স্কোর তৈরি করা হয়েছিল। যাদের স্কোর বেশি ছিল তাদের পরিবার এবং প্রতিবেশীদের সাথে হত্যা করা হয়েছিল, যদিও ল্যাভেন্ডারের দ্বারা চিহ্নিত সম্ভাব্য লক্ষ্যবস্তুগুলি যাচাই করার জন্য অফিসাররা খুব কমই কাজ করেছিলেন বলে জানা গেছে, “দক্ষতার” কারণ উল্লেখ করে।
“আমার মনে আছে এটি অতুলনীয়,” ল্যাভেন্ডার ব্যবহার করা একজন গোয়েন্দা কর্মকর্তা বলেন, তিনি আরও বলেন তার সহকর্মীরা একজন শোকাহত সৈনিকের চেয়ে “পরিসংখ্যানগত ব্যবস্থায়” বেশি বিশ্বাস করতেন। “আমি সহ সেখানে থাকা সকলেই ৭ অক্টোবর মানুষ হারিয়েছিলেন। যন্ত্রটি এটি ঠান্ডা মাথায় করেছিল। এবং এটি কাজটি সহজ করে তুলেছিল।”
আইডিএফ পূর্বে “দ্য গসপেল” নামে আরেকটি এআই সিস্টেম ব্যবহার করেছিল, যা ম্যাগাজিনের পূর্ববর্তী তদন্তে এবং ইসরায়েলি সামরিক বাহিনীর নিজস্ব প্রকাশনাগুলিতে জঙ্গিদের আশ্রয় দেওয়ার সন্দেহে ভবন এবং কাঠামো লক্ষ্য করার জন্য বর্ণনা করা হয়েছিল।
“দ্য গসপেল” লক্ষ লক্ষ তথ্যের উপর ভিত্তি করে তৈরি করে, মানব গোয়েন্দা কর্মকর্তাদের একটি দল যা কখনও করতে পারে তার চেয়ে ৫০ গুণ বেশি দ্রুত লক্ষ্যবস্তু তালিকা তৈরি করে। গাজা যুদ্ধের প্রথম দুই মাসে এটি প্রতিদিন ১০০টি লক্ষ্যবস্তুতে আঘাত করার জন্য ব্যবহৃত হয়েছিল, যা এক দশক আগের একই ধরণের সংঘাতের তুলনায় প্রায় পাঁচগুণ বেশি। হামাসের জন্য রাজনৈতিক বা সামরিক তাৎপর্যপূর্ণ কাঠামোগুলিকে “শক্তি লক্ষ্যবস্তু” বলা হয়।
এআই অস্ত্রের দুর্বলতা
যদি একটি এআই অস্ত্র স্বায়ত্তশাসিত হয়, তবে এর সঠিক উপলব্ধির ক্ষমতা থাকা প্রয়োজন। অর্থাৎ, যদি এটি একটি বেসামরিক গাড়িকে সামরিক লক্ষ্যবস্তু ভেবে ভুল করে, তবে এর প্রতিক্রিয়া হার প্রাসঙ্গিক নয়। গাড়িতে থাকা বেসামরিক নাগরিকরা নির্বিশেষে মারা যায়।
অনেক ক্ষেত্রে, অবশ্যই, এআই সিস্টেমগুলি উপলব্ধিতে উৎকৃষ্ট হয়েছে কারণ এআই-চালিত মেশিন এবং অ্যালগরিদমগুলি পরিমার্জিত হয়েছে। উদাহরণস্বরূপ, যখন রাশিয়ান সামরিক বাহিনী একীভূত ভিজ্যুয়ালাইজেশনের মাধ্যমে সিরিয়ার যুদ্ধক্ষেত্রের উপর একযোগে ৮০টি ইউএভি উড়ানোর পরীক্ষা চালিয়েছিল, তখন রাশিয়ার প্রতিরক্ষামন্ত্রী সের্গেই শোইগু এটিকে একটি “আধা-চমৎকার চলচ্চিত্র” এর সাথে তুলনা করেছিলেন যা সমস্ত সম্ভাব্য লক্ষ্যবস্তু প্রকাশ করেছিল।
কিন্তু সমস্যা তৈরি হতে পারে। একটি AI অস্ত্র ডিজাইন করার সময়, ডেভেলপারদের প্রথমে ডেটা অ্যাক্সেসের প্রয়োজন হয়। অনেক AI সিস্টেম এমন ডেটা ব্যবহার করে প্রশিক্ষিত হয় যা একটি বিশেষজ্ঞ সিস্টেম দ্বারা লেবেল করা হয়েছে (যেমন, একটি বায়ু প্রতিরক্ষা ব্যাটারি সহ দৃশ্য লেবেল করা), সাধারণত একটি মানুষ।
একটি AI এর ছবি-প্রক্রিয়াকরণ ক্ষমতা ভালভাবে কাজ করবে না যখন এমন ছবি দেওয়া হয় যা তার প্রশিক্ষণ সেট থেকে আলাদা – উদাহরণস্বরূপ, যেখানে আলোর অবস্থা খারাপ, যেগুলি একটি স্থূল কোণে থাকে, অথবা যেগুলি আংশিকভাবে অস্পষ্ট থাকে। AI স্বীকৃতি সিস্টেমগুলি চিত্রটি কী তা বুঝতে পারে না; বরং, তারা চিত্রের পিক্সেলের টেক্সচার এবং গ্রেডিয়েন্ট শিখে। এর অর্থ হল একটি AI সিস্টেম একটি চিত্রের একটি অংশ সঠিকভাবে চিনতে পারে কিন্তু এর সম্পূর্ণতা নয়, যার ফলে ভুল শ্রেণীবিভাগ হতে পারে।
প্রতারণামূলক চিত্রগুলির বিরুদ্ধে AI কে আরও ভালভাবে রক্ষা করার জন্য, ইঞ্জিনিয়াররা তাদের “প্রতিকূল প্রশিক্ষণ” প্রদান করে। এর মধ্যে একটি শ্রেণীবদ্ধকারী প্রতিকূল চিত্র খাওয়ানো জড়িত যাতে এটি এমনগুলিকে সনাক্ত করতে এবং উপেক্ষা করতে পারে যেগুলি লক্ষ্যবস্তু করা হবে না।
পেনসিলভানিয়া স্টেট ইউনিভার্সিটির স্নাতকোত্তর শিক্ষার্থী নিকোলাস পেপারনটের গবেষণায় দেখা গেছে যে, প্রতিপক্ষীয় প্রশিক্ষণ দ্বারা শক্তিশালী একটি সিস্টেম, যদি বিপুল সংখ্যক ছবির দ্বারা অভিভূত হয়, তাহলে তা অকার্যকর হতে পারে। প্রতিপক্ষীয় ছবিগুলি “সিদ্ধান্ত সীমানা” নামে পরিচিত অনেক AI সিস্টেমে পাওয়া একটি বৈশিষ্ট্যের সুযোগ নেয়।
এই সীমানাগুলি হল অদৃশ্য নিয়ম যা একটি সিস্টেমকে নির্দেশ দেয় যে এটি একটি সিংহ বা চিতাবাঘকে উপলব্ধি করছে কিনা। উদ্দেশ্য হবে একটি সেক্টরে সিংহ এবং অন্যটিতে চিতাবাঘ সহ একটি মানসিক মানচিত্র তৈরি করা। এই দুটি সেক্টরকে বিভক্তকারী রেখা – যে সীমানায় একটি সিংহ চিতাবাঘ বা চিতাবাঘ সিংহ হয়ে ওঠে – তাকে সিদ্ধান্ত সীমানা বলা হয়।
জেফ ক্লুন, যিনি প্রতিপক্ষীয় প্রশিক্ষণও অধ্যয়ন করেছেন, এই ধরনের শ্রেণিবিন্যাস ব্যবস্থা সম্পর্কে সন্দেহজনক কারণ এগুলি খুব স্বেচ্ছাচারী। “এই নেটওয়ার্কগুলির সাথে আপনি যা করছেন তা হল [একটি] চিতাবাঘ বা সিংহ কী তা গভীরভাবে মডেল করার পরিবর্তে তাদের ডেটা ক্লাস্টারের মধ্যে রেখা আঁকতে প্রশিক্ষণ দেওয়া।”
বৃহৎ ডেটাসেটগুলি প্রায়শই এমন কোম্পানিগুলি দ্বারা লেবেল করা হয় যারা ম্যানুয়াল পদ্ধতি ব্যবহার করে। ডেটাসেট সংগ্রহ এবং ভাগাভাগি করা একটি চ্যালেঞ্জ, বিশেষ করে এমন একটি সংস্থার জন্য যারা ডেটা শ্রেণীবদ্ধ করতে এবং এতে অ্যাক্সেস সীমাবদ্ধ করতে পছন্দ করে।
উদাহরণস্বরূপ, একটি সামরিক ডেটাসেটে থার্মাল-ইমেজিং সিস্টেম দ্বারা উত্পাদিত ছবি থাকতে পারে, কিন্তু যদি না এই ডেটাসেটটি ডেভেলপারদের সাথে ভাগ করা হয়, তাহলে একটি AI অস্ত্র ততটা কার্যকর হবে না। উদাহরণস্বরূপ, শত শত শব্দের মধ্যে সীমাবদ্ধ চ্যাটবটের উপর নির্ভরশীল AI ডিভাইসগুলি একজন মানুষকে সম্পূর্ণরূপে অনেক বেশি শব্দভান্ডার দিয়ে প্রতিস্থাপন করতে সক্ষম নাও হতে পারে।
AI সিস্টেমগুলি মাল্টিটাস্ক করার অক্ষমতার কারণেও বাধাগ্রস্ত হয়। একজন মানুষ একটি শত্রু যান সনাক্ত করতে পারে, তার বিরুদ্ধে একটি অস্ত্র ব্যবস্থা ব্যবহার করার সিদ্ধান্ত নিতে পারে, তার পথ ভবিষ্যদ্বাণী করতে পারে এবং তারপর লক্ষ্যবস্তুতে জড়িত হতে পারে। একটি AI সিস্টেম এই পদক্ষেপগুলি নকল করতে পারে না।
এই মুহুর্তে, একটি T-90 ট্যাঙ্ক সনাক্ত করার জন্য প্রশিক্ষিত একটি সিস্টেম সম্ভবত একটি চাইনিজ টাইপ 99 ট্যাঙ্ক সনাক্ত করতে অক্ষম হবে, যদিও তারা উভয়ই ট্যাঙ্ক এবং উভয় কাজের জন্য চিত্র স্বীকৃতি প্রয়োজন। অনেক গবেষক সিস্টেমগুলিকে তাদের শিক্ষা স্থানান্তর করতে সক্ষম করার জন্য কাজ করে এই সমস্যাটি সমাধান করার চেষ্টা করছেন, তবে এই ধরণের সিস্টেমগুলি উৎপাদন থেকে বহু বছর দূরে।
ধারণা করা হচ্ছে, প্রতিপক্ষরা ইমেজ রিকগনিশন ইঞ্জিন এবং সেন্সরগুলিকে বোকা বানিয়ে এই দুর্বলতাগুলির সুযোগ নেওয়ার চেষ্টা করবে। তারা অনুপ্রবেশ সনাক্তকরণ সিস্টেম এড়াতে সাইবার আক্রমণ বাড়ানোর চেষ্টা করতে পারে অথবা এআই সিস্টেমগুলিতে পরিবর্তিত ডেটা সরবরাহ করতে পারে যা তাদের মিথ্যা প্রয়োজনীয়তা সরবরাহ করবে।
মার্কিন প্রস্তুতি
মার্কিন প্রতিরক্ষা বিভাগ নতুন প্রযুক্তি বাস্তবায়নের চেয়ে হার্ডওয়্যারের জন্য চুক্তি এবং নির্মাণে বেশি পক্ষপাতদুষ্ট। একইভাবে, বোয়িং, জেনারেল অ্যাটমিক্স এবং ক্র্যাটোস নামক একটি কোম্পানির সহযোগিতায় বিমান বাহিনী এআই-চালিত ড্রোন তৈরি করছে।
বিমান বাহিনী কৃত্রিম বুদ্ধিমত্তা দ্বারা পরিচালিত পাইলটহীন XQ-58A ভালকিরি পরীক্ষামূলক বিমানও পরীক্ষা করছে। এই পরবর্তী প্রজন্মের ড্রোনটি বিমান বাহিনী যা আশা করে তার ঐতিহ্যবাহী যুদ্ধবিমানের বহরের একটি শক্তিশালী পরিপূরক হয়ে উঠতে পারে তার একটি প্রোটোটাইপ।
এর উদ্দেশ্য হলো যুদ্ধে মোতায়েন করার জন্য মানব পাইলটদের একদল অত্যন্ত সক্ষম রোবট উইংম্যান দেওয়া। তবে, ভালকিরি স্বায়ত্তশাসিত নয়। যদিও এটি শত্রুর হুমকি সনাক্ত এবং মূল্যায়ন করার জন্য AI এবং সেন্সর ব্যবহার করবে, তবুও লক্ষ্যবস্তুতে আঘাত করা হবে কিনা তা সিদ্ধান্ত নেওয়ার দায়িত্ব পাইলটদের উপর থাকবে।
পেন্টাগনের কর্মকর্তারা এখনও যুদ্ধে স্বায়ত্তশাসিত অস্ত্র মোতায়েন নাও করতে পারেন, তবে তারা এমন অস্ত্র পরীক্ষা এবং নিখুঁত করছেন যা মানুষের হস্তক্ষেপের উপর নির্ভর করবে না। এর একটি উদাহরণ হল সেনাবাহিনীর প্রকল্প কনভারজেন্স।
২০২০ সালের আগস্টে অ্যারিজোনার ইউমা প্রুভিং গ্রাউন্ডে অনুষ্ঠিত প্রকল্পের অংশ হিসাবে পরিচালিত একটি পরীক্ষায়, সেনাবাহিনী বিভিন্ন ধরণের বিমান এবং স্থল-ভিত্তিক সেন্সর ব্যবহার করে সিমুলেটেড শত্রু বাহিনীকে ট্র্যাক করে এবং তারপর ওয়াশিংটন রাজ্যের একটি ঘাঁটিতে AI-সক্ষম কম্পিউটার ব্যবহার করে সেই ডেটা প্রক্রিয়া করে।
সেই কম্পিউটারগুলি, পালাক্রমে ইউমায় স্থল-ভিত্তিক কামানগুলিতে আগুনের নির্দেশ জারি করেছিল। “এই সম্পূর্ণ ক্রমটি ২০ সেকেন্ডের মধ্যে সম্পন্ন হয়েছিল বলে মনে করা হচ্ছে,” কংগ্রেসনাল রিসার্চ সার্ভিস পরে রিপোর্ট করেছে।
রেপ্লিকেটর ইনিশিয়েটিভ নামে পরিচিত একটি মার্কিন প্রোগ্রামে, পেন্টাগন জানিয়েছে তারা হাজার হাজার স্বায়ত্তশাসিত ড্রোন ব্যাপকভাবে উৎপাদনের পরিকল্পনা করেছে। তবে, কোনও সরকারী নীতি স্বায়ত্তশাসিত অস্ত্রের ব্যবহারকে সমর্থন করে না, যা ডিভাইসগুলিকে মানুষের অনুমোদন ছাড়াই লক্ষ্যবস্তুতে আঘাত করার সিদ্ধান্ত নেওয়ার অনুমতি দেবে।
নৌবাহিনীর “প্রজেক্ট ওভারম্যাচ” নামে একটি প্রজেক্ট কনভার্জেন্সের সমতুল্য একটি এআই রয়েছে। নৌবাহিনীর অপারেশনের প্রধান অ্যাডমিরাল মাইকেল গিল্ডের ভাষায়, এটি “একটি নৌবাহিনীকে সক্ষম করার জন্য যা সমুদ্রে ঝাঁপিয়ে পড়ে, কাছের এবং দূরবর্তী, প্রতিটি অক্ষ এবং প্রতিটি ডোমেন থেকে সিঙ্ক্রোনাইজড মারাত্মক এবং অ-প্রাণঘাতী প্রভাব সরবরাহ করে।” প্রকল্প সম্পর্কে খুব কমই প্রকাশ করা হয়েছে।
জাতীয় নিরাপত্তা সংস্থা (এনএসএ) দ্বারা নিযুক্ত প্রায় ৭,০০০ বিশ্লেষক, যিনি এনএসএ পরিচালক, মার্কিন সাইবার কমান্ড কমান্ডার এবং কেন্দ্রীয় নিরাপত্তা পরিষেবার প্রধান হিসাবে দায়িত্ব পালন করেন, তার মতে, জাতীয় নিরাপত্তা সংস্থা (এনএসএ) দ্বারা নিযুক্ত প্রায় ৭,০০০ বিশ্লেষক তাদের কার্যক্রমে এআইকে একীভূত করার চেষ্টা করছেন।
জেনারেল হাফ প্রকাশ করেছেন ২০২৪ সাল পর্যন্ত, এনএসএ ১৭০টি এআই প্রকল্পে নিযুক্ত রয়েছে, যার মধ্যে ১০টি জাতীয় নিরাপত্তার জন্য গুরুত্বপূর্ণ বলে বিবেচিত হয়। “অন্য ১৬০টি, আমরা মানুষের জন্য পরীক্ষা-নিরীক্ষা, সুবিধা গ্রহণ এবং সম্মতিপূর্ণ ব্যবহারের সুযোগ তৈরি করতে চাই,” তিনি বলেন।
বর্তমানে, যদিও, AI এখনও প্রচলিত প্ল্যাটফর্মের পরিপূরক হিসাবে বিবেচিত হয়। AI চারটি অতিরিক্ত ভূমিকা পালন করে বলেও কল্পনা করা হয়: পরিকল্পনা এবং কৌশল স্বয়ংক্রিয় করা; মানুষ বা প্রচলিত সিস্টেমের তুলনায় আরও দক্ষতার সাথে সংকেতগুলিকে ফিউজ এবং ব্যাখ্যা করা; মহাকাশ-ভিত্তিক সিস্টেমগুলিকে সহায়তা করা, প্রধানত হাইপারসনিক মোকাবেলায় তথ্য সংগ্রহ এবং সংশ্লেষণের মাধ্যমে; এবং পরবর্তী প্রজন্মের সাইবার এবং তথ্য যুদ্ধের ক্ষমতা সক্ষম করা।
AI ব্যবহারের নীতি
যদিও স্বায়ত্তশাসিত অস্ত্রের ব্যবহার কয়েক দশক ধরে বিতর্কের বিষয়, খুব কম পর্যবেক্ষকই আশা করেন যে কোনও আন্তর্জাতিক চুক্তি নতুন নিয়ম প্রতিষ্ঠা করবে, বিশেষ করে যখন মার্কিন যুক্তরাষ্ট্র, চীন, ইসরায়েল, রাশিয়া এবং অন্যান্যরা আরও উন্নত অস্ত্র তৈরির জন্য প্রতিযোগিতা করছে।
জাতিসংঘে স্বায়ত্তশাসিত অস্ত্রের বিষয়ে অস্ট্রিয়ার শীর্ষ আলোচক আলেকজান্ডার কেমেন্ট বলেছেন, “ভূ-রাজনীতি এটিকে অসম্ভব করে তোলে।” “এই অস্ত্রগুলি ব্যবহার করা হবে এবং এগুলি প্রায় সকলের সামরিক অস্ত্রাগারে ব্যবহার করা হবে।”
এত চ্যালেঞ্জ থাকা সত্ত্বেও, হিউম্যান রাইটস ওয়াচ “স্বায়ত্তশাসিত অস্ত্র ব্যবস্থা নিষিদ্ধ ও নিয়ন্ত্রণের জন্য একটি আইনত বাধ্যতামূলক হাতিয়ারের জরুরি আলোচনা এবং গ্রহণের আহ্বান জানিয়েছে।” এটি “কিলার রোবট বন্ধ করার অভিযান” শুরু করেছে, যা মানবাধিকার সংস্থা বলেছে 270 টিরও বেশি দল এবং 70 টি দেশ এতে যোগ দিয়েছে।
যদিও বিতর্কটি স্বায়ত্তশাসিত অস্ত্রকে কেন্দ্র করে কেন্দ্রীভূত, এআই ড্রোন প্রস্তুতকারক আন্দুরিলের সিইও ব্রায়ান শিম্পফের আরেকটি দৃষ্টিভঙ্গি রয়েছে। তিনি বলেছেন এআই অস্ত্র “মানুষকে লুপ থেকে বের করে আনার বিষয়ে নয়। আমি মনে করি না এটি সঠিক নীতিগত কাঠামো। এটি আসলে কীভাবে আমরা মানব সিদ্ধান্ত গ্রহণকারীদের আরও কার্যকর এবং তাদের সিদ্ধান্তের জন্য আরও জবাবদিহি করতে পারি সে সম্পর্কে।”
সব মিলিয়ে, স্বায়ত্তশাসিত এআই অস্ত্র ইতিমধ্যেই বিকাশাধীন। জীবন-মৃত্যুর সিদ্ধান্ত নেওয়ার জন্য অস্ত্রের উপর নির্ভর করার নীতিশাস্ত্র ছাড়াও, এআই নিজেই একটি সমস্যা রয়েছে। ত্রুটি এবং ভুল গণনা তুলনামূলকভাবে সাধারণ। এআই সিস্টেমগুলির ক্রিয়াকলাপের অন্তর্নিহিত অ্যালগরিদমগুলি ভুল করতে সক্ষম – “ভ্রান্তি” – যার আপাতদৃষ্টিতে যুক্তিসঙ্গত ফলাফল সম্পূর্ণরূপে অলীক হয়ে ওঠে।
এর ফলে AI অস্ত্র মোতায়েনের ক্ষেত্রে গভীর প্রভাব পড়তে পারে যা মানব অপারেটরদের দ্বারা সনাক্ত করা যায় না এমন গভীর ত্রুটিপূর্ণ নির্দেশাবলী সহ কাজ করে। বিশেষ করে একটি ডিস্টোপিয়ান পরিস্থিতিতে, একজন প্রতিপক্ষ মানুষের পরিবর্তে রোবট জেনারেলদের প্রতিস্থাপন করতে পারে, যা মার্কিন যুক্তরাষ্ট্রকেও একই কাজ করতে বাধ্য করে, যার ফলে AI সিস্টেমগুলি যুদ্ধক্ষেত্রে একে অপরের বিরুদ্ধে অপ্রত্যাশিত এবং সম্ভবত বিপর্যয়কর পরিণতি নিয়ে দাঁড়াতে পারে।
লন্ডনের কুইন মেরি বিশ্ববিদ্যালয়ের ডক্টর এলকে শোয়ার্জ যুদ্ধক্ষেত্রে AI-এর নৈতিক মাত্রা বিবেচনা করে একটি তাত্ত্বিক কাঠামোর মাধ্যমে AI অস্ত্রের দ্বিধাকে দেখেন যা রাজনৈতিক বিজ্ঞান এবং অভিজ্ঞতালব্ধ তদন্তের উপর নির্ভর করে। তিনি বিশ্বাস করেন AI-সক্ষম অস্ত্র ব্যবস্থার একীকরণ মানব লক্ষ্যবস্তুকে বস্তুনিষ্ঠ করে তোলে, যার ফলে সমান্তরাল ক্ষতির জন্য সহনশীলতা বৃদ্ধি পায়।
তার মতে, অটোমেশন “AI-সক্ষম লক্ষ্যবস্তু ব্যবস্থার অপারেটরদের মধ্যে নৈতিক সংস্থাকে দুর্বল করে দিতে পারে, নৈতিক সিদ্ধান্ত গ্রহণের জন্য তাদের ক্ষমতা হ্রাস করতে পারে।” স্বায়ত্তশাসিত ব্যবস্থার প্রতি পক্ষপাতিত্ব প্রতিরক্ষা শিল্পকে সামরিক AI সিস্টেমগুলিকে তহবিল দেওয়ার জন্য তাড়াহুড়ো করতে উৎসাহিত করতে পারে, “যুদ্ধক্ষেত্রে দায়িত্বশীল AI ব্যবহারের ধারণাকে প্রভাবিত করে।” তিনি নীতিনির্ধারকদের খুব দেরি হওয়ার আগে ঝুঁকি বিবেচনা করার আহ্বান জানান।
“(T)he) AI-এর প্রভাব মেশিনগান বা বিমানের চেয়ে অনেক বেশি। এটি গত শিল্প বিপ্লবে পেশী শক্তি থেকে মেশিন শক্তিতে স্থানান্তরের মতো,” বলেছেন পিটার সিঙ্গার, অ্যারিজোনা স্টেট ইউনিভার্সিটির অধ্যাপক এবং মার্কিন থিঙ্ক ট্যাঙ্ক নিউ আমেরিকার একজন কৌশলবিদ এবং সিনিয়র ফেলো, যিনি AI এবং যুদ্ধ সম্পর্কে ব্যাপকভাবে লিখেছেন।
“আমি বিশ্বাস করি সফটওয়্যারের দিক থেকে AI এর আবির্ভাব এবং হার্ডওয়্যারের দিক থেকে রোবোটিক্সে এর প্রয়োগ শিল্প বিপ্লবের সমতুল্য, যখন আমরা যান্ত্রিকীকরণ দেখেছিলাম।” এই রূপান্তর “সঠিক এবং ভুলের নতুন প্রশ্ন উত্থাপন করে যা আমরা আগে কখনও মোকাবেলা করিনি।” তিনি “যুদ্ধক্ষেত্রে AI এর ব্যবহার নিয়ন্ত্রণের জন্য কাঠামো” স্থাপনের পক্ষে কথা বলেন যা নকশা এবং ব্যবহারে কাজ করা লোকেদের ক্ষেত্রে প্রযোজ্য হওয়া উচিত।
সিঙ্গার “মেশিনের অনুমতিযোগ্যতা” বলে অভিহিত একটি বিষয় হল মানুষের নিয়ন্ত্রণ ছাড়া মেশিনকে কী করার অনুমতি দেওয়া উচিত। তিনি দ্বিতীয় বিষয়টির দিকে মনোযোগ আকর্ষণ করেন “যা আমরা আগে কখনও মোকাবেলা করিনি”, যা হল “মেশিনের জবাবদিহিতা”। “যদি কিছু ঘটে, তাহলে আমরা কাকে দায়ী করব যদি মেশিনই পদক্ষেপ নেয়? এটা বোঝা খুব সহজ যে একটি নিয়মিত গাড়ির সাথে, তথাকথিত চালকবিহীন গাড়ির সাথে এটি বোঝা কঠিন।”
যুদ্ধক্ষেত্রে, লক্ষ্যবস্তু ভুল হলে বা এর ফলে বেসামরিক নাগরিক নিহত হলে মেশিনকে দায়ী করা হবে?
লেসলি অ্যালান হরভিটজ বিজ্ঞানে বিশেষজ্ঞ একজন লেখক এবং সাংবাদিক এবং অবজারভেটরির একজন অবদানকারী। তাঁর নন-ফিকশন বইগুলির মধ্যে রয়েছে “ইউরেকা: সায়েন্টিফিক ব্রেকথ্রুস দ্যাট চেঞ্জড দ্য ওয়ার্ল্ড”, জনস হপকিন্স বিশ্ববিদ্যালয়ের ডঃ রেমন্ড ডিপাওলোর সাথে “আন্ডারস্ট্যান্ডিং ডিপ্রেশন” এবং “দ্য এসেনশিয়াল বুক অফ ওয়েদার লর”।
তাঁর প্রবন্ধগুলি ট্র্যাভেল অ্যান্ড লেজার, স্কলাস্টিক, ওয়াশিংটন টাইমস এবং ইনসাইট অন দ্য নিউজ সহ অন্যান্য সংস্থা দ্বারা প্রকাশিত হয়েছে। তিনি আর্ট ওমির বোর্ডে দায়িত্ব পালন করেছেন এবং পেন আমেরিকার সদস্য। হরভিটজ নিউ ইয়র্ক সিটিতে অবস্থিত। আপনি তাকে lesliehorvitz.com এ অনলাইনে খুঁজে পেতে পারেন।