মানুষের ‘বিলুপ্তির ঝুঁকি’ তৈরি করেছে এআই, প্রযুক্তিবিদদের সতর্কবার্তা

কৃত্রিম বুদ্ধিমত্তা খাতে কাজ করা ৩৫০ জনেরও বেশি ইঞ্জিনিয়ার, গবেষক ও নির্বাহীরা এ বিষয়ে এক খোলা চিঠিতে স্বাক্ষর করেছেন।
ছবি: সংগৃহীত

একদল নের্তৃস্থানীয় প্রযুক্তিবিদ গত ৩০ মে জানিয়েছেন, তারা যে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি তৈরি করছেন তা একদিন মানব অস্তিত্বের জন্য হুমকি হয়ে দাঁড়াতে পারে এবং এই প্রযুক্তিকে মহামারি এবং পারমাণবিক যুদ্ধের মতো বড় ঝুঁকি হিসেবে বিবেচনা করা উচিত।

সেন্টার ফর এআই সেফটি নামের একটি অলাভজনক সংস্থার এক বাক্যের বিবৃতিতে বলা হয়েছে, 'মহামারি ও পারমাণবিক যুদ্ধের মতো এআইয়ের কারণে বিলুপ্তির ঝুঁকি কমানোকেও সমান গুরুত্ব দেওয়া উচিত।'

কৃত্রিম বুদ্ধিমত্তা খাতে কাজ করা ৩৫০ জনেরও বেশি ইঞ্জিনিয়ার, গবেষক ও নির্বাহীরা এই খোলা চিঠিতে স্বাক্ষর করেছেন।

স্বাক্ষরদাতাদের মধ্যে রয়েছেন ৩টি নের্তৃস্থানীয় এআই কোম্পানির প্রধান নির্বাহীরা- ওপেনএআইয়ের প্রধান নির্বাহী স্যামুয়েল অল্টম্যান, গুগল ডিপমাইন্ডের প্রধান নির্বাহী ডেমিস হাসাবিস এবং অ্যানথ্রোপিকের প্রধান নির্বাহী ডারিও আমোদেই।

নিউরাল নেটওয়ার্ক নিয়ে কাজের জন্য টুরিং পুরস্কার বিজয়ী জিওফ্রে হিনটন এবং যশুয়া বেনিজও, যাদেরকে আধুনিক এআই প্রযুক্তির 'গডফাদার' হিসেবে বিবেচনা করা হয়, তারাও এই বিবৃতিতে স্বাক্ষর করেছেন। তবে টুরিং পুরস্কার বিজয়ী তৃতীয় গবেষক ইয়ান লিক্যান, যিনি আবার মেটার এআই গবেষণা কাজে নের্তৃত্ব দিচ্ছেন, ৩১ মে পর্যন্ত বিবৃতিতে স্বাক্ষর করেননি।

বিবৃতিটি এমন সময়ে প্রকাশ করা হলো, যখন কৃত্রিম বুদ্ধিমত্তার ঝুঁকি নিয়ে উদ্বেগ ক্রমশ বাড়ছে। এই খাতে সাম্প্রতিক অগ্রগতি হচ্ছে তথাকথিত 'লার্জ ল্যাংগুয়েজ মডেল', যার সাহায্যে চ্যাটজিপিটি বা বার্ডের মতো চ্যাটবটগুলো চলতে পারে। অনেকেই আশঙ্কা করছেন এই লার্জ ল্যাংগুয়েজ মডেল ভবিষ্যতে ভুয়া তথ্য ও প্রপাগান্ডা ছড়ানোর কাজে ব্যবহৃত হবে এবং মানুষের লাখ লাখ চাকরি কেড়ে নেবে।

এমনকি কেউ কেউ বিশ্বাস করেন, কৃত্রিম বুদ্ধিমত্তার অগ্রগতির হার যদি এখনই নিয়ন্ত্রণে না আনা হয়, তাহলে এটি এতটাই শক্তিশালী হয়ে উঠতে পারে যে কয়েক বছরের মধ্যে সমাজে অস্থিরতা তৈরি করতে পারে। যদিও এআই কীভাবে এই সামাজিক অস্থিরতা তৈরি করবে, গবেষকেরা তা এখনো নিশ্চিতভাবে বলতে পারেননি।

কৃত্রিম বুদ্ধিমত্তা নিয়ে এই ভয় ও আশঙ্কা এই খাতের অসংখ্য নেতৃবৃন্দের। কিন্তু তারপরও তারা প্রতিদ্বন্দ্বী কোম্পানিগুলোর তুলনায় দ্রুততম সময়ে আরও উন্নত ও শক্তিশালী এআই প্রযুক্তি তৈরিতে নিজেদের সর্বোচ্চ চেষ্টা করছে। ফলে ঝুঁকি আরও বাড়ছে। বিশষেজ্ঞরা বলছেন, এআই সম্পর্কে আরও কঠোর নিয়ম-কানুন আরোপ করা উচিত।

স্যাম (স্যামুয়েল) অল্টম্যান এবং ডেমিস হাসাবিস এআই সম্পর্কিত বিধিবিধান কেমন হওয়া উচিত, তা নিয়ে আলোচনা করতে সম্প্রতি মার্কিন প্রেসিডেন্ট জো বাইডেন এবং ভাইস প্রেসিডেন্ট কামালা হ্যারিসের সঙ্গে দেখা করেছেন। তাদের স্বাক্ষাতের পর মার্কিন সিনেটের শুনানিতে হাজির হয়ে স্যাম অল্টম্যান কৃত্রিম বুদ্ধিমত্তার ঝুঁকিগুলো কী কী, তা বর্ণনা করেছেন এবং এআইয়ের সম্পর্কিত বিধিবিধান তৈরির জন্য সরকারি হস্তক্ষেপের ওপর জোর দিয়েছেন।

সিনেট শুনানিতে স্যাম অল্টম্যান বলেন, 'আমি মনে করি এই প্রযুক্তি যখন খারাপ কিছু করে, তখন তা আরও বেশি খারাপ হওয়ার সম্ভাবনা বেশি। এমন পরিস্থিতি এড়াতে আমরা সরকারের সঙ্গে কাজ করতে চাই।'

ওপেনএআইয়ের প্রধান নির্বাহী বলেন, এআই কোম্পানিগুলোকে লাইসেন্স দেওয়ার জন্য একটি নতুন সংস্থা গড়ে তোলা প্রয়োজন। এ ছাড়া গণতন্ত্রের ওপর এর সম্ভাব্য প্রভাব সম্পর্কেও নিজের উদ্বেগ জানিয়েছেন অল্টম্যান।

সেন্টার ফর এআই সেফটির নির্বাহী পরিচালক ড্যান হ্যান্ড্রিকস বলেন, 'এই বিবৃতিটির মাধ্যমে যারা এআইয়ের ঝুঁকি নিয়ে এতদিন গোপনভাবে কথা বলতেন, তারাও প্রকাশ্যে এলেন এবং নিজেরা যে প্রযুক্তি তৈরি করছেন, তার ঝুঁকি নিয়ে খোলামেলা কথা বললেন।'

'এমনকি এআই সম্প্রদায়ের মধ্যেও একটি ভুল ধারণা রয়েছে যে, হয়তো অল্প সংখ্যক মানুষই এর ঝুঁকি সম্পর্কে কথা বলছেন। কিন্তু বাস্তবতা হচ্ছে অনেকেই গোপনে গোপনে এই প্রযুক্তির ঝুঁকি নিয়ে কথা বলছেন।'

কেউ কেউ অবশ্য যুক্তি দেখান যে এআই প্রযুক্তি এখনো অস্তিত্বের হুমকি তৈরি করার জন্য পরিপক্ক হয়ে উঠেনি। বরং তারা বর্তমানে যে এআই সিস্টেমগুলো সবাই ব্যবহার করছে, সেগুলোর দীর্ঘমেয়াদী বিপদের চেয়ে পক্ষপাতদুষ্ট এবং ভুল উত্তরের মতো স্বল্পমেয়াদী সমস্যাগুলো নিয়ে বেশি উদ্বিগ্ন।

তবে অন্যদের যুক্তি হচ্ছে, এআই এত দ্রুত উন্নতি করছে যে এটি ইতোমধ্যে কিছু ক্ষেত্রে মানুষের বুদ্ধি ও দক্ষতাকে ছাড়িয়ে গেছে এবং শিগগিরই অন্যান্য ক্ষেত্রেও মানুষকে ছাড়িয়ে যাবে। তারা বলছেন, এই প্রযুক্তির উচ্চতর সক্ষমতা ও বোঝার ক্ষমতা ইতোমধ্যে প্রমাণ হয়েছে। ফলে অদূর ভবিষ্যতে অনেকগুলো কাজের ক্ষেত্রে এটি মানুষকে হটিয়ে দেবে।

সম্প্রতি লেখা এক ব্লগ পোস্টে স্যাম অল্টম্যান এবং ওপেনএআইয়ের আরও ২ জন নির্বাহী এআই প্রযুক্তিকে কীভাবে দায়িত্বশীলতার সঙ্গে নিয়ন্ত্রণ করা যায়, তার পরামর্শ দিয়েছেন। তারা এআই প্রযুক্তি তৈরি করা প্রতিষ্ঠানগুলোর মধ্যে আরও সমন্বয়, লার্জ ল্যাংগুয়েজ মডেল সম্পর্কে আরও গভীর গবেষণার প্রস্তাব দিয়েছেন। একই সঙ্গে আন্তর্জাতিক পরমাণু শক্তি কমিশন বা আইএইএ-এর মতো এআই সেফটি অরগানাইজেশন প্রতিষ্ঠারও প্রস্তাব দিয়েছেন।

গত মার্চ মাসে ১ হাজারেরও বেশি প্রযুক্তিবিদ ও গবেষক এক খোলা চিঠিতে কৃত্রিম বুদ্ধিমত্তার বিকাশ ৬ মাসের জন্য বন্ধ রাখার আহবান জানিয়েছিল। ওই চিঠিতে বলা হয়েছিল, এই প্রযুক্তিগুলো তৈরির যে লাগামহীন প্রতিযোগিতা, তার ফলে আরও শক্তিশালী ডিজিটাল বুদ্ধি তৈরি হওয়ার সম্ভাবনা দেখা দিয়েছে। ওই খোলা চিঠিতে স্বাক্ষর করেছিলেন ইলন মাস্ক, যিনি ওপেনএআইয়ের প্রতিষ্ঠাতাদের একজন। যদিও পরবর্তীতে তিনি প্রতিষ্ঠানটি ছেড়ে চলে যান এবং কৃত্রিম বুদ্ধিমত্তার অভাবনীয় উত্থান নিয়ে তীব্র সমালোচনামুখর হন।  

সূত্র: নিউ ইয়র্ক টাইমস
গ্রন্থনা:
আহমেদ হিমেল
 

Comments

The Daily Star  | English

Why are investors leaving the stock market?

Stock investors in Bangladesh are leaving the share market as they are losing their hard-earned money because of the persisting fall of the indices driven by the prolonged economic crisis, the worsening health of the banking industry, and rising interest and exchange rates.

8h ago