মানুষের ‘বিলুপ্তির ঝুঁকি’ তৈরি করেছে এআই, প্রযুক্তিবিদদের সতর্কবার্তা

ছবি: সংগৃহীত

একদল নের্তৃস্থানীয় প্রযুক্তিবিদ গত ৩০ মে জানিয়েছেন, তারা যে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি তৈরি করছেন তা একদিন মানব অস্তিত্বের জন্য হুমকি হয়ে দাঁড়াতে পারে এবং এই প্রযুক্তিকে মহামারি এবং পারমাণবিক যুদ্ধের মতো বড় ঝুঁকি হিসেবে বিবেচনা করা উচিত।

সেন্টার ফর এআই সেফটি নামের একটি অলাভজনক সংস্থার এক বাক্যের বিবৃতিতে বলা হয়েছে, 'মহামারি ও পারমাণবিক যুদ্ধের মতো এআইয়ের কারণে বিলুপ্তির ঝুঁকি কমানোকেও সমান গুরুত্ব দেওয়া উচিত।'

কৃত্রিম বুদ্ধিমত্তা খাতে কাজ করা ৩৫০ জনেরও বেশি ইঞ্জিনিয়ার, গবেষক ও নির্বাহীরা এই খোলা চিঠিতে স্বাক্ষর করেছেন।

স্বাক্ষরদাতাদের মধ্যে রয়েছেন ৩টি নের্তৃস্থানীয় এআই কোম্পানির প্রধান নির্বাহীরা- ওপেনএআইয়ের প্রধান নির্বাহী স্যামুয়েল অল্টম্যান, গুগল ডিপমাইন্ডের প্রধান নির্বাহী ডেমিস হাসাবিস এবং অ্যানথ্রোপিকের প্রধান নির্বাহী ডারিও আমোদেই।

নিউরাল নেটওয়ার্ক নিয়ে কাজের জন্য টুরিং পুরস্কার বিজয়ী জিওফ্রে হিনটন এবং যশুয়া বেনিজও, যাদেরকে আধুনিক এআই প্রযুক্তির 'গডফাদার' হিসেবে বিবেচনা করা হয়, তারাও এই বিবৃতিতে স্বাক্ষর করেছেন। তবে টুরিং পুরস্কার বিজয়ী তৃতীয় গবেষক ইয়ান লিক্যান, যিনি আবার মেটার এআই গবেষণা কাজে নের্তৃত্ব দিচ্ছেন, ৩১ মে পর্যন্ত বিবৃতিতে স্বাক্ষর করেননি।

বিবৃতিটি এমন সময়ে প্রকাশ করা হলো, যখন কৃত্রিম বুদ্ধিমত্তার ঝুঁকি নিয়ে উদ্বেগ ক্রমশ বাড়ছে। এই খাতে সাম্প্রতিক অগ্রগতি হচ্ছে তথাকথিত 'লার্জ ল্যাংগুয়েজ মডেল', যার সাহায্যে চ্যাটজিপিটি বা বার্ডের মতো চ্যাটবটগুলো চলতে পারে। অনেকেই আশঙ্কা করছেন এই লার্জ ল্যাংগুয়েজ মডেল ভবিষ্যতে ভুয়া তথ্য ও প্রপাগান্ডা ছড়ানোর কাজে ব্যবহৃত হবে এবং মানুষের লাখ লাখ চাকরি কেড়ে নেবে।

এমনকি কেউ কেউ বিশ্বাস করেন, কৃত্রিম বুদ্ধিমত্তার অগ্রগতির হার যদি এখনই নিয়ন্ত্রণে না আনা হয়, তাহলে এটি এতটাই শক্তিশালী হয়ে উঠতে পারে যে কয়েক বছরের মধ্যে সমাজে অস্থিরতা তৈরি করতে পারে। যদিও এআই কীভাবে এই সামাজিক অস্থিরতা তৈরি করবে, গবেষকেরা তা এখনো নিশ্চিতভাবে বলতে পারেননি।

কৃত্রিম বুদ্ধিমত্তা নিয়ে এই ভয় ও আশঙ্কা এই খাতের অসংখ্য নেতৃবৃন্দের। কিন্তু তারপরও তারা প্রতিদ্বন্দ্বী কোম্পানিগুলোর তুলনায় দ্রুততম সময়ে আরও উন্নত ও শক্তিশালী এআই প্রযুক্তি তৈরিতে নিজেদের সর্বোচ্চ চেষ্টা করছে। ফলে ঝুঁকি আরও বাড়ছে। বিশষেজ্ঞরা বলছেন, এআই সম্পর্কে আরও কঠোর নিয়ম-কানুন আরোপ করা উচিত।

স্যাম (স্যামুয়েল) অল্টম্যান এবং ডেমিস হাসাবিস এআই সম্পর্কিত বিধিবিধান কেমন হওয়া উচিত, তা নিয়ে আলোচনা করতে সম্প্রতি মার্কিন প্রেসিডেন্ট জো বাইডেন এবং ভাইস প্রেসিডেন্ট কামালা হ্যারিসের সঙ্গে দেখা করেছেন। তাদের স্বাক্ষাতের পর মার্কিন সিনেটের শুনানিতে হাজির হয়ে স্যাম অল্টম্যান কৃত্রিম বুদ্ধিমত্তার ঝুঁকিগুলো কী কী, তা বর্ণনা করেছেন এবং এআইয়ের সম্পর্কিত বিধিবিধান তৈরির জন্য সরকারি হস্তক্ষেপের ওপর জোর দিয়েছেন।

সিনেট শুনানিতে স্যাম অল্টম্যান বলেন, 'আমি মনে করি এই প্রযুক্তি যখন খারাপ কিছু করে, তখন তা আরও বেশি খারাপ হওয়ার সম্ভাবনা বেশি। এমন পরিস্থিতি এড়াতে আমরা সরকারের সঙ্গে কাজ করতে চাই।'

ওপেনএআইয়ের প্রধান নির্বাহী বলেন, এআই কোম্পানিগুলোকে লাইসেন্স দেওয়ার জন্য একটি নতুন সংস্থা গড়ে তোলা প্রয়োজন। এ ছাড়া গণতন্ত্রের ওপর এর সম্ভাব্য প্রভাব সম্পর্কেও নিজের উদ্বেগ জানিয়েছেন অল্টম্যান।

সেন্টার ফর এআই সেফটির নির্বাহী পরিচালক ড্যান হ্যান্ড্রিকস বলেন, 'এই বিবৃতিটির মাধ্যমে যারা এআইয়ের ঝুঁকি নিয়ে এতদিন গোপনভাবে কথা বলতেন, তারাও প্রকাশ্যে এলেন এবং নিজেরা যে প্রযুক্তি তৈরি করছেন, তার ঝুঁকি নিয়ে খোলামেলা কথা বললেন।'

'এমনকি এআই সম্প্রদায়ের মধ্যেও একটি ভুল ধারণা রয়েছে যে, হয়তো অল্প সংখ্যক মানুষই এর ঝুঁকি সম্পর্কে কথা বলছেন। কিন্তু বাস্তবতা হচ্ছে অনেকেই গোপনে গোপনে এই প্রযুক্তির ঝুঁকি নিয়ে কথা বলছেন।'

কেউ কেউ অবশ্য যুক্তি দেখান যে এআই প্রযুক্তি এখনো অস্তিত্বের হুমকি তৈরি করার জন্য পরিপক্ক হয়ে উঠেনি। বরং তারা বর্তমানে যে এআই সিস্টেমগুলো সবাই ব্যবহার করছে, সেগুলোর দীর্ঘমেয়াদী বিপদের চেয়ে পক্ষপাতদুষ্ট এবং ভুল উত্তরের মতো স্বল্পমেয়াদী সমস্যাগুলো নিয়ে বেশি উদ্বিগ্ন।

তবে অন্যদের যুক্তি হচ্ছে, এআই এত দ্রুত উন্নতি করছে যে এটি ইতোমধ্যে কিছু ক্ষেত্রে মানুষের বুদ্ধি ও দক্ষতাকে ছাড়িয়ে গেছে এবং শিগগিরই অন্যান্য ক্ষেত্রেও মানুষকে ছাড়িয়ে যাবে। তারা বলছেন, এই প্রযুক্তির উচ্চতর সক্ষমতা ও বোঝার ক্ষমতা ইতোমধ্যে প্রমাণ হয়েছে। ফলে অদূর ভবিষ্যতে অনেকগুলো কাজের ক্ষেত্রে এটি মানুষকে হটিয়ে দেবে।

সম্প্রতি লেখা এক ব্লগ পোস্টে স্যাম অল্টম্যান এবং ওপেনএআইয়ের আরও ২ জন নির্বাহী এআই প্রযুক্তিকে কীভাবে দায়িত্বশীলতার সঙ্গে নিয়ন্ত্রণ করা যায়, তার পরামর্শ দিয়েছেন। তারা এআই প্রযুক্তি তৈরি করা প্রতিষ্ঠানগুলোর মধ্যে আরও সমন্বয়, লার্জ ল্যাংগুয়েজ মডেল সম্পর্কে আরও গভীর গবেষণার প্রস্তাব দিয়েছেন। একই সঙ্গে আন্তর্জাতিক পরমাণু শক্তি কমিশন বা আইএইএ-এর মতো এআই সেফটি অরগানাইজেশন প্রতিষ্ঠারও প্রস্তাব দিয়েছেন।

গত মার্চ মাসে ১ হাজারেরও বেশি প্রযুক্তিবিদ ও গবেষক এক খোলা চিঠিতে কৃত্রিম বুদ্ধিমত্তার বিকাশ ৬ মাসের জন্য বন্ধ রাখার আহবান জানিয়েছিল। ওই চিঠিতে বলা হয়েছিল, এই প্রযুক্তিগুলো তৈরির যে লাগামহীন প্রতিযোগিতা, তার ফলে আরও শক্তিশালী ডিজিটাল বুদ্ধি তৈরি হওয়ার সম্ভাবনা দেখা দিয়েছে। ওই খোলা চিঠিতে স্বাক্ষর করেছিলেন ইলন মাস্ক, যিনি ওপেনএআইয়ের প্রতিষ্ঠাতাদের একজন। যদিও পরবর্তীতে তিনি প্রতিষ্ঠানটি ছেড়ে চলে যান এবং কৃত্রিম বুদ্ধিমত্তার অভাবনীয় উত্থান নিয়ে তীব্র সমালোচনামুখর হন।  

সূত্র: নিউ ইয়র্ক টাইমস
গ্রন্থনা:
আহমেদ হিমেল
 

Comments

The Daily Star  | English
The Indian media and Bangladesh-India relations

The Indian media and Bangladesh-India relations

The bilateral relationship must be based on a "win-win" policy, rooted in mutual respect, non-hegemony, and the pursuit of shared prosperity and deeper understanding.

14h ago