স্টকহোম, অক্টোবর 24 – কৃত্রিম বুদ্ধিমত্তা সংস্থাগুলি এবং সরকারগুলিকে তাদের AI গবেষণা ও উন্নয়ন তহবিলের অন্তত এক তৃতীয়াংশ বরাদ্দ করা উচিত সিস্টেমগুলির সুরক্ষা এবং নৈতিক ব্যবহার নিশ্চিত করার জন্য, শীর্ষ এআই গবেষকরা মঙ্গলবার একটি চিঠিতে বলেছেন।
লন্ডনে আন্তর্জাতিক এআই সেফটি সামিটের এক সপ্তাহ আগে জারি করা এই চিঠিতে এআই ঝুঁকি মোকাবেলায় সরকার ও কোম্পানিগুলোর নেওয়া উচিত এমন পদক্ষেপের তালিকা রয়েছে।
“সরকারদের এটাও বাধ্যতামূলক করা উচিত যে কোম্পানিগুলি তাদের সীমান্ত AI সিস্টেমের ক্ষতির জন্য আইনত দায়বদ্ধ যা যুক্তিসঙ্গতভাবে পূর্বাভাস এবং প্রতিরোধ করা যেতে পারে,” চিঠিটি অনুসারে, তিনজন টুরিং পুরস্কার বিজয়ী, একজন নোবেল বিজয়ী এবং এক ডজনেরও বেশি শীর্ষ এআই শিক্ষাবিদ।
বর্তমানে কোনও বিস্তৃত-ভিত্তিক প্রবিধান এআই সুরক্ষার উপর দৃষ্টি নিবদ্ধ করছে না এবং ইউরোপীয় ইউনিয়নের আইনের প্রথম সেটটি এখনও আইনে পরিণত হয়নি কারণ আইন প্রণেতারা এখনও বেশ কয়েকটি বিষয়ে একমত হননি।
“সাম্প্রতিক অত্যাধুনিক এআই মডেলগুলি অত্যন্ত শক্তিশালী এবং অত্যন্ত তাৎপর্যপূর্ণ, যেগুলিকে গণতান্ত্রিক তদারকি ছাড়াই বিকশিত হতে দেয়,” বলেছেন ইয়োশুয়া বেঙ্গিও, AI-এর গডফাদার হিসাবে পরিচিত তিনজনের একজন৷
“এটি এআই সুরক্ষায় বিনিয়োগ দ্রুত ঘটতে হবে কারণ এআই সতর্কতা অবলম্বনের চেয়ে অনেক দ্রুত অগ্রগতি করছে,” তিনি বলেছিলেন।
চিঠিতে স্বাক্ষরকারীদের মধ্যে রয়েছে জিওফ্রে হিন্টন, অ্যান্ড্রু ইয়াও, ড্যানিয়েল কাহনেম্যান, ডন সং এবং ইউভাল নোয়া হারারি।
ওপেনএআই-এর জেনারেটিভ এআই মডেল চালু হওয়ার পর থেকে, শীর্ষস্থানীয় শিক্ষাবিদ এবং এলন মাস্কের মতো বিশিষ্ট সিইওরা এআই-এর ঝুঁকি সম্পর্কে সতর্ক করেছেন, যার মধ্যে শক্তিশালী এআই সিস্টেম তৈরিতে ছয় মাসের বিরতির আহ্বান রয়েছে।
কিছু কোম্পানি এটিকে পাল্টা দিয়ে বলেছে তারা উচ্চ সম্মতি খরচ এবং অসম দায়বদ্ধতার ঝুঁকির সম্মুখীন হবে।
ব্রিটিশ কম্পিউটার বিজ্ঞানী স্টুয়ার্ট রাসেল বলেছেন, “কোম্পানিগুলি অভিযোগ করবে যে প্রবিধানগুলি সন্তুষ্ট করা খুব কঠিন। যে ‘নিয়ন্ত্রণ উদ্ভাবনকে দমিয়ে দেয়’ এটি হাস্যকর,” ব্রিটিশ কম্পিউটার বিজ্ঞানী স্টুয়ার্ট রাসেল বলেছেন৷
“এআই কোম্পানিগুলির তুলনায় স্যান্ডউইচের দোকানগুলিতে আরও বেশি নিয়ম রয়েছে।”