যে ৫ কারণে চ্যাটজিপিটি নিষিদ্ধ করেছে কয়েকটি প্রতিষ্ঠান

গত বছরের নভেম্বরে মার্কিন প্রযুক্তি প্রতিষ্ঠান ওপেনএআই কৃত্রিম বুদ্ধিমত্তা (এআই) চালিত চ্যাটবট সেবা ‘চ্যাটজিপিটি’ চালুর পরই প্রযুক্তি জগতে সাড়া পড়ে এবং বাড়তে থাকে ব্যবহারকারীর সংখ্যা। ছবি; সংগৃহীত
গত বছরের নভেম্বরে মার্কিন প্রযুক্তি প্রতিষ্ঠান ওপেনএআই কৃত্রিম বুদ্ধিমত্তা (এআই) চালিত চ্যাটবট সেবা ‘চ্যাটজিপিটি’ চালুর পরই প্রযুক্তি জগতে সাড়া পড়ে এবং বাড়তে থাকে ব্যবহারকারীর সংখ্যা। ছবি; সংগৃহীত

গত বছরের নভেম্বরে মার্কিন প্রযুক্তি প্রতিষ্ঠান ওপেনএআই কৃত্রিম বুদ্ধিমত্তা (এআই) চালিত চ্যাটবট সেবা 'চ্যাটজিপিটি' চালুর পরই প্রযুক্তি জগতে সাড়া পড়ে এবং বাড়তে থাকে ব্যবহারকারীর সংখ্যা। তবে যাত্রা শুরুর কয়েক মাসের মধ্যেই বেশ কয়েকটি বড় প্রতিষ্ঠানে চ্যাটজিপিটি ব্যবহার নিষিদ্ধ হয়েছে।

এ বছরের মে মাসে স্যামসাং চ্যাটজিপিটি ও অন্যান্য কৃত্রিম বুদ্ধিমত্তাসম্পন্ন টুল ব্যবহার নিষিদ্ধ করেছে। এরপর জুনে অস্ট্রেলিয়ার কমনওয়েলথ ব্যাংক, অ্যামাজন, অ্যাপল ও জেপিমর্গান চেজ অ্যান্ড কোং এর মতো প্রতিষ্ঠান গুলোও একই পথে এগিয়েছে। এছাড়াও বেশ কিছু হাসপাতাল, আইন সংস্থা এবং সরকারী সংস্থাগুলোও কর্মীদের চ্যাটজিপিটি ব্যবহার নিষিদ্ধ করেছে।

প্রযুক্তিবিষয়ক ওয়েবসাইট মেকইউজঅফ চ্যাটজিপিটি নিষিদ্ধ করার ৫টি মূল কারণ চিহ্নিত করেছে। 

১। তথ্য ফাঁস

চ্যাটজিপিটির কাজের জন্য প্রচুর পরিমাণ ডেটা বা তথ্যের প্রয়োজন হয়৷ এই প্ল্যাটফর্ম ইন্টারনেট থেকে পাওয়া বিপুল পরিমাণ তথ্য ব্যবহার করে সবসময়ই নতুন কিছু না কিছু শিখছে।

ওপেনএআই এর হেল্প পেইজ অনুযায়ী গ্রাহকের গোপনীয় তথ্য, ব্যবসায়িক কৌশল সংক্রান্ত গোপন ও সংবেদনশীল তথ্য সহ একজন ব্যবহারকারীর দেওয়া সব তথ্যই চ্যাটজিপিটির প্রশিক্ষকেরা চাইলে দেখতে এবং সিস্টেমের উন্নয়নে কাজে লাগাতে পারেন। এছাড়াও, ওপেনএআই কোনো তথ্যের সুরক্ষা ও গোপনীয়তার নিশ্চয়তা দেয় না।

অধিকাংশ প্রতিষ্ঠান তাদের তথ্য সুরক্ষার বিষয়ে বেশ সতর্ক। ফলে তথ্য ফাঁসের ঝুঁকি এড়াতে তারা নিজেদের যেকোনো তথ্য তৃতীয় পক্ষের সঙ্গে বিনিময় করতে চায় না।

২। সাইবার নিরাপত্তা ঝুঁকি

সাইবার নিরাপত্তার ক্ষেত্রে চ্যাটজিপিটি কোনো ঝুঁকি তৈরি করতে পারে কী না, তা এখনো জানা যায়নি। তবে, ধারণা করা হয়, আক্রমণকারীরা চ্যাটবটের কোনো দুর্বলতাকে কাজে লাগিয়ে ব্যবহারকারীদের মাধ্যমে প্রতিষ্ঠানের নেটওয়ার্কে ভাইরাস বা ম্যালওয়্যার ছড়াতে পারে।

এছাড়াও, চ্যাটজিপিটির মানুষের মতো প্রশ্নের উত্তর দেওয়ার ক্ষমতা আক্রমণকারীদের জন্য একটি সোনার হরিণ। আক্রমণকারীরা কর্মচারীদের কোন একটি একাউন্ট হ্যাক করে বা কৃত্রিম বুদ্ধিমত্তাসম্পন্ন টুলের ছদ্মবেশে তাদের থেকে গোপনীয় তথ্য হাতিয়ে নিতে পারে।

৩। নিজস্ব চ্যাটবট ব্যবহার

কখনো কখনো চ্যাটজিপিটি ভুল ও বিভ্রান্তিকর তথ্য দেয়। এজন্য অনেক প্রতিষ্ঠান তাদের কাজে সাহায্য করার জন্য নিজেদের কৃত্রিম বুদ্ধিমত্তাসম্পন্ন চ্যাটবট তৈরি করছে। যেমন, অস্ট্রেলিয়ার কমনওয়েলথ ব্যাংক তাদের কর্মচারীদের জন্য জেন.এআই (Gen.ai) চ্যাটবট এনেছে। এই কৃত্রিম বুদ্ধিমত্তা সম্পন্ন চ্যাটবট যেকোনো প্রশ্নের উত্তর দেওয়ার জন্য শুধু তাদের প্রতিষ্ঠানের নিজস্ব তথ্য ব্যবহার করে। নিজেদের তৈরি চ্যাটবটের তথ্যে কোনো ভুল-ভ্রান্তি থাকলেও সে ক্ষেত্রে আইনি জটিলতার মুখে পড়ার ঝুঁকি কম থাকে।

৪। নিয়ন্ত্রণের অভাব

চ্যাটজিপিটির ব্যবস্থাপনা অনেকটাই অনিয়ন্ত্রিত। এমন অনিয়ন্ত্রিত কোনো মাধ্যমের ব্যবহার একটি প্রতিষ্ঠানের জবাবদিহিতা এবং স্বচ্ছতা কমিয়ে দেয়। তাই কঠোর নিয়ন্ত্রণের অধীনে থাকা প্রতিষ্ঠানগুলোর ক্ষেত্রে চ্যাটজিপিটি যেন বড় এক আতঙ্ক। সুনির্দিষ্ট শর্ত ছাড়া এই প্রতিষ্ঠানগুলো চ্যাটজিপিটি ব্যবহার করলে গুরুতর আইনি পরিণতির সম্মুখীন হতে পারে।

৫। দায়িত্বজ্ঞানহীন ব্যবহারের ঝুঁকি

সাম্প্রতিক সময়ে অনেক প্রতিষ্ঠানের কর্মীরা কন্টেন্ট তৈরি ও অন্যান্য দায়িত্ব পালনের জন্য চ্যাটজিপিটির ওপর নির্ভরশীল হয়ে পড়ছে। দিনে দিনে এই প্রবণতা বাড়ছে। সংশ্লিষ্টদের মতে, এতে কাজের ক্ষেত্রে অলসতা দেখা দেয় এবং সৃজনশীলতা ও উদ্ভাবনী চিন্তাভাবনা কমে যায়।

আবার অনেক কর্মচারী চ্যাটজিপিটির দেওয়া তথ্য ভালো করে যাচাই না করেই তা কাজের ক্ষেত্রে ব্যবহার করছে।  এতে প্রতিষ্ঠানের বিশ্বাসযোগ্যতাও ক্ষতির মুখে পড়তে পারে।

এসব কারণেই উল্লেখিত প্রতিষ্ঠানগুলো চ্যাটজিপিটির ব্যবহার নিষিদ্ধ করেছে বলে মত দিয়েছেন বিশ্লেষকরা।

এই উদ্যোগের অন্তর্নিহিত উদ্দেশ্য কর্মীদের কাজের মনোযোগ বাড়ানো এবং যেকোনো সমস্যার ভুলহীন ও নির্ভরযোগ্য সমাধান নিজেরাই বের করতে পারে।

 

গ্রন্থনায়: নাফিসা ইসলাম মেঘা

তথ্যসূত্র: মেকইউজঅব

Comments

The Daily Star  | English

ICT investigators submit report against Hasina, 2 others

The charges stem from the violent crackdown during the July 2024 mass uprising

1h ago