যুক্তরাষ্ট্র, ইসরায়েল ও ইরানের চলমান সংঘাতে কৃত্রিম বুদ্ধিমত্তা (এআই) ব্যবহারের বিষয়টি নতুন করে বৈশ্বিক আলোচনার কেন্দ্রবিন্দুতে এসেছে। যুদ্ধক্ষেত্রে লক্ষ্য শনাক্তকরণ, তথ্য বিশ্লেষণ এবং সিদ্ধান্ত গ্রহণে উন্নত এআই প্রযুক্তি ব্যবহারের বিষয়টি একদিকে সামরিক সক্ষমতা বাড়াচ্ছে, অন্যদিকে মানবাধিকার ও আন্তর্জাতিক আইনের প্রশ্নও জোরালো করছে।
গত ২৮ ফেব্রুয়ারি একটি সামরিক অভিযান শুরুর আগে মার্কিন সরকার একটি এআই প্রযুক্তি সরবরাহকারী প্রতিষ্ঠানের সঙ্গে কাজ স্থগিত করে। যুদ্ধক্ষেত্রে এআই ব্যবহারের নৈতিকতা ও নিয়ন্ত্রণ নিয়ে মতবিরোধের জেরে এই সিদ্ধান্ত নেওয়া হয় বলে সংশ্লিষ্ট সূত্রে জানা গেছে।
আন্তর্জাতিক পর্যায়ে আইনি বিতর্ক
সুইজারল্যান্ডের জেনেভায় সম্প্রতি বিভিন্ন দেশের বিশেষজ্ঞরা বৈঠকে মিলিত হন। আলোচনার কেন্দ্রবিন্দু ছিল—মানুষের সরাসরি নিয়ন্ত্রণ ছাড়া লক্ষ্য নির্ধারণ করে আঘাত হানতে সক্ষম স্বয়ংক্রিয় অস্ত্র আন্তর্জাতিক আইনের আওতায় কতটা গ্রহণযোগ্য। এ ধরনের প্রযুক্তি নিয়ন্ত্রণে বৈশ্বিক চুক্তির প্রয়োজনীয়তা নিয়েও মতামত উঠে আসে।
বিশেষজ্ঞ মাইকেল হোরোভিটজ বলেন, এআই প্রযুক্তি দ্রুত অগ্রসর হলেও তার নিয়ন্ত্রণে আইনি কাঠামো অনেক পিছিয়ে রয়েছে। আরেক বিশেষজ্ঞ ক্রেগ জোন্স সতর্ক করে বলেন, সময়মতো নীতিমালা প্রণয়ন না হলে যুদ্ধক্ষেত্রে এআইয়ের অপব্যবহার রোধ করা কঠিন হয়ে পড়বে।
যুক্তরাষ্ট্রের সামরিক ব্যবস্থায় এআই
ইরানের সঙ্গে চলমান সংঘাতে হতাহতের সংখ্যা বাড়তে থাকায় মার্কিন সেনাবাহিনী এআই ব্যবহারের বিষয়টি নিশ্চিত করেছে। মার্কিন কেন্দ্রীয় কমান্ডের প্রধান ব্র্যাড কুপার জানিয়েছেন, বিপুল তথ্য দ্রুত বিশ্লেষণের জন্য উন্নত এআই সরঞ্জাম ব্যবহার করা হচ্ছে।
‘Maven Smart System’ নামের একটি সফটওয়্যার চিত্র বিশ্লেষণের মাধ্যমে সম্ভাব্য লক্ষ্যবস্তু শনাক্ত করতে পারে। আন্তর্জাতিক সংবাদমাধ্যমের দাবি, ইরানের ওপর সাম্প্রতিক হামলায় এ প্রযুক্তি ব্যবহৃত হয়েছে, যদিও বিস্তারিত তথ্য প্রকাশ করা হয়নি।
মানবাধিকার উদ্বেগ ও হতাহতের প্রশ্ন
দক্ষিণ ইরানের একটি স্কুলে বোমা হামলায় ১৭০ জনের বেশি মানুষ নিহত হওয়ার ঘটনায় এআই ব্যবহারের নৈতিকতা নিয়ে প্রশ্ন উঠেছে। গত ২৮ ফেব্রুয়ারি শুরু হওয়া অভিযানে এখন পর্যন্ত অন্তত এক হাজার ৩০০ জন নিহত হয়েছেন বলে বিভিন্ন সূত্রে জানা গেছে।
বিশেষজ্ঞদের একাংশ মনে করেন, এআই লক্ষ্যবস্তু নির্ধারণে নির্ভুলতা বাড়াতে পারে, ফলে বেসামরিক হতাহতের সংখ্যা কমতে পারে। তবে ইউক্রেন ও গাজায় ড্রোন হামলার অভিজ্ঞতা দেখিয়ে সমালোচকরা বলছেন, এআই ব্যবহারের পরও সাধারণ মানুষের প্রাণহানি কমেনি।
প্রযুক্তি প্রতিষ্ঠান ও সরকারের মতবিরোধ
২০২৪ সালে প্রযুক্তি প্রতিষ্ঠান Anthropic তাদের ‘Claude’ এআই ব্যবস্থা মার্কিন প্রতিরক্ষা বিভাগের ম্যাভেন সিস্টেমে সহায়তার জন্য প্রায় ২০০ মিলিয়ন ডলারের চুক্তি করে। তবে চলতি বছরের জানুয়ারিতে মার্কিন সরকারের নতুন নিয়ম অনুযায়ী, প্রয়োজনে সরকার যে কোনো আইনি কাজে বাধাহীনভাবে এআই ব্যবহার করতে পারবে—এ শর্তে আপত্তি জানায় প্রতিষ্ঠানটি।
এ মতবিরোধের জেরে ২৭ ফেব্রুয়ারি মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্প সরকারকে অ্যানথ্রোপিকের প্রযুক্তি ব্যবহার বন্ধ করার নির্দেশ দেন।
চীনের সতর্কবার্তা
গত ১১ মার্চ চীন সামরিক ক্ষেত্রে এআইয়ের অতিরিক্ত ব্যবহারের বিরুদ্ধে সতর্কবার্তা দেয়। দেশটির প্রতিরক্ষা মন্ত্রণালয়ের মুখপাত্র জিয়াং বিন বলেন, মানুষের জীবন-মৃত্যুর সিদ্ধান্ত অ্যালগরিদমের হাতে তুলে দেওয়া যুদ্ধের নৈতিকতা ও জবাবদিহিকে প্রশ্নবিদ্ধ করতে পারে।
বিশেষজ্ঞদের মতে, নিয়ন্ত্রণহীন এআই প্রযুক্তি ভবিষ্যতে বড় ধরনের ঝুঁকি তৈরি করতে পারে। কেউ কেউ আশঙ্কা করছেন, এটি কাল্পনিক চলচ্চিত্র The Terminator-এর মতো পরিস্থিতির জন্ম দিতে পারে, যেখানে কৃত্রিম বুদ্ধিমত্তা মানব নিয়ন্ত্রণের বাইরে চলে যায়।
বিশ্ব রাজনীতির বর্তমান প্রেক্ষাপটে সামরিক ক্ষেত্রে এআইয়ের ব্যবহার এখন শুধু প্রযুক্তিগত নয়, বরং নৈতিক, আইনি ও মানবিক প্রশ্নেরও কেন্দ্রবিন্দুতে উঠে এসেছে।
পরি-কন্ঠ/ মুয়াজ
ইরান যুদ্ধ, কৃত্রিম বুদ্ধিমত্তা, এআই অস্ত্র, যুক্তরাষ্ট্র, ইসরায়েল, সামরিক প্রযুক্তি, মানবাধিকার, আন্তর্জাতিক আইন

রোববার, ২২ মার্চ ২০২৬
প্রকাশের তারিখ : ২২ মার্চ ২০২৬
যুক্তরাষ্ট্র, ইসরায়েল ও ইরানের চলমান সংঘাতে কৃত্রিম বুদ্ধিমত্তা (এআই) ব্যবহারের বিষয়টি নতুন করে বৈশ্বিক আলোচনার কেন্দ্রবিন্দুতে এসেছে। যুদ্ধক্ষেত্রে লক্ষ্য শনাক্তকরণ, তথ্য বিশ্লেষণ এবং সিদ্ধান্ত গ্রহণে উন্নত এআই প্রযুক্তি ব্যবহারের বিষয়টি একদিকে সামরিক সক্ষমতা বাড়াচ্ছে, অন্যদিকে মানবাধিকার ও আন্তর্জাতিক আইনের প্রশ্নও জোরালো করছে।
গত ২৮ ফেব্রুয়ারি একটি সামরিক অভিযান শুরুর আগে মার্কিন সরকার একটি এআই প্রযুক্তি সরবরাহকারী প্রতিষ্ঠানের সঙ্গে কাজ স্থগিত করে। যুদ্ধক্ষেত্রে এআই ব্যবহারের নৈতিকতা ও নিয়ন্ত্রণ নিয়ে মতবিরোধের জেরে এই সিদ্ধান্ত নেওয়া হয় বলে সংশ্লিষ্ট সূত্রে জানা গেছে।
আন্তর্জাতিক পর্যায়ে আইনি বিতর্ক
সুইজারল্যান্ডের জেনেভায় সম্প্রতি বিভিন্ন দেশের বিশেষজ্ঞরা বৈঠকে মিলিত হন। আলোচনার কেন্দ্রবিন্দু ছিল—মানুষের সরাসরি নিয়ন্ত্রণ ছাড়া লক্ষ্য নির্ধারণ করে আঘাত হানতে সক্ষম স্বয়ংক্রিয় অস্ত্র আন্তর্জাতিক আইনের আওতায় কতটা গ্রহণযোগ্য। এ ধরনের প্রযুক্তি নিয়ন্ত্রণে বৈশ্বিক চুক্তির প্রয়োজনীয়তা নিয়েও মতামত উঠে আসে।
বিশেষজ্ঞ মাইকেল হোরোভিটজ বলেন, এআই প্রযুক্তি দ্রুত অগ্রসর হলেও তার নিয়ন্ত্রণে আইনি কাঠামো অনেক পিছিয়ে রয়েছে। আরেক বিশেষজ্ঞ ক্রেগ জোন্স সতর্ক করে বলেন, সময়মতো নীতিমালা প্রণয়ন না হলে যুদ্ধক্ষেত্রে এআইয়ের অপব্যবহার রোধ করা কঠিন হয়ে পড়বে।
যুক্তরাষ্ট্রের সামরিক ব্যবস্থায় এআই
ইরানের সঙ্গে চলমান সংঘাতে হতাহতের সংখ্যা বাড়তে থাকায় মার্কিন সেনাবাহিনী এআই ব্যবহারের বিষয়টি নিশ্চিত করেছে। মার্কিন কেন্দ্রীয় কমান্ডের প্রধান ব্র্যাড কুপার জানিয়েছেন, বিপুল তথ্য দ্রুত বিশ্লেষণের জন্য উন্নত এআই সরঞ্জাম ব্যবহার করা হচ্ছে।
‘Maven Smart System’ নামের একটি সফটওয়্যার চিত্র বিশ্লেষণের মাধ্যমে সম্ভাব্য লক্ষ্যবস্তু শনাক্ত করতে পারে। আন্তর্জাতিক সংবাদমাধ্যমের দাবি, ইরানের ওপর সাম্প্রতিক হামলায় এ প্রযুক্তি ব্যবহৃত হয়েছে, যদিও বিস্তারিত তথ্য প্রকাশ করা হয়নি।
মানবাধিকার উদ্বেগ ও হতাহতের প্রশ্ন
দক্ষিণ ইরানের একটি স্কুলে বোমা হামলায় ১৭০ জনের বেশি মানুষ নিহত হওয়ার ঘটনায় এআই ব্যবহারের নৈতিকতা নিয়ে প্রশ্ন উঠেছে। গত ২৮ ফেব্রুয়ারি শুরু হওয়া অভিযানে এখন পর্যন্ত অন্তত এক হাজার ৩০০ জন নিহত হয়েছেন বলে বিভিন্ন সূত্রে জানা গেছে।
বিশেষজ্ঞদের একাংশ মনে করেন, এআই লক্ষ্যবস্তু নির্ধারণে নির্ভুলতা বাড়াতে পারে, ফলে বেসামরিক হতাহতের সংখ্যা কমতে পারে। তবে ইউক্রেন ও গাজায় ড্রোন হামলার অভিজ্ঞতা দেখিয়ে সমালোচকরা বলছেন, এআই ব্যবহারের পরও সাধারণ মানুষের প্রাণহানি কমেনি।
প্রযুক্তি প্রতিষ্ঠান ও সরকারের মতবিরোধ
২০২৪ সালে প্রযুক্তি প্রতিষ্ঠান Anthropic তাদের ‘Claude’ এআই ব্যবস্থা মার্কিন প্রতিরক্ষা বিভাগের ম্যাভেন সিস্টেমে সহায়তার জন্য প্রায় ২০০ মিলিয়ন ডলারের চুক্তি করে। তবে চলতি বছরের জানুয়ারিতে মার্কিন সরকারের নতুন নিয়ম অনুযায়ী, প্রয়োজনে সরকার যে কোনো আইনি কাজে বাধাহীনভাবে এআই ব্যবহার করতে পারবে—এ শর্তে আপত্তি জানায় প্রতিষ্ঠানটি।
এ মতবিরোধের জেরে ২৭ ফেব্রুয়ারি মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্প সরকারকে অ্যানথ্রোপিকের প্রযুক্তি ব্যবহার বন্ধ করার নির্দেশ দেন।
চীনের সতর্কবার্তা
গত ১১ মার্চ চীন সামরিক ক্ষেত্রে এআইয়ের অতিরিক্ত ব্যবহারের বিরুদ্ধে সতর্কবার্তা দেয়। দেশটির প্রতিরক্ষা মন্ত্রণালয়ের মুখপাত্র জিয়াং বিন বলেন, মানুষের জীবন-মৃত্যুর সিদ্ধান্ত অ্যালগরিদমের হাতে তুলে দেওয়া যুদ্ধের নৈতিকতা ও জবাবদিহিকে প্রশ্নবিদ্ধ করতে পারে।
বিশেষজ্ঞদের মতে, নিয়ন্ত্রণহীন এআই প্রযুক্তি ভবিষ্যতে বড় ধরনের ঝুঁকি তৈরি করতে পারে। কেউ কেউ আশঙ্কা করছেন, এটি কাল্পনিক চলচ্চিত্র The Terminator-এর মতো পরিস্থিতির জন্ম দিতে পারে, যেখানে কৃত্রিম বুদ্ধিমত্তা মানব নিয়ন্ত্রণের বাইরে চলে যায়।
বিশ্ব রাজনীতির বর্তমান প্রেক্ষাপটে সামরিক ক্ষেত্রে এআইয়ের ব্যবহার এখন শুধু প্রযুক্তিগত নয়, বরং নৈতিক, আইনি ও মানবিক প্রশ্নেরও কেন্দ্রবিন্দুতে উঠে এসেছে।
পরি-কন্ঠ/ মুয়াজ
ইরান যুদ্ধ, কৃত্রিম বুদ্ধিমত্তা, এআই অস্ত্র, যুক্তরাষ্ট্র, ইসরায়েল, সামরিক প্রযুক্তি, মানবাধিকার, আন্তর্জাতিক আইন

আপনার মতামত লিখুন