আমাদের দৈনন্দিন জীবনে অ্যান্ড্রয়েড অ্যাপস থেকে শুরু করে ব্যবসায়িক সিদ্ধান্ত গ্রহণ পর্যন্ত সবখানে কৃত্রিম বুদ্ধিমত্তা (AI) সিস্টেমের ব্যবহার ব্যাপকভাবে বৃদ্ধি পেয়েছে। এই সিস্টেমগুলি সাধারণত ডাটা ব্যবহার করে সিদ্ধান্ত নেয়, কিন্তু এসব ডাটার মধ্যে পক্ষপাতিত্ব (bias) থাকা AI সিস্টেমের সিদ্ধান্তের উপর বড় ধরনের প্রভাব ফেলতে পারে। AI সিস্টেমের কাজ হল ডাটা সংগ্রহ এবং সেই ডাটা বিশ্লেষণ করে সিদ্ধান্ত নেওয়া। কিন্তু এই ডাটা যে কোনো প্রকৃতির হতে পারে এবং অনেক সময় মানুষের পক্ষ থেকে অসম্পূর্ণ, অগোছালো বা পক্ষপাতমূলক হয়। পক্ষপাতিত্ব তখন আসে যখন ডাটা সংগ্রহের সময় কিছু নির্দিষ্ট দৃষ্টিকোণ, সামাজিক গ্রুপ, বা ক্ষেত্রের প্রতি পক্ষপাতিত্ব থাকে।
উদাহরণস্বরূপ, যদি কোনো AI সিস্টেমকে চাকরি প্রদান সংক্রান্ত সিদ্ধান্ত নিতে বলা হয়, এবং সেই সিস্টেমে পুরুষদের এবং মহিলাদের সম্পর্কিত পক্ষপাতিত্বপূর্ণ ডাটা ব্যবহার করা হয় তবে সিস্টেমটি মহিলাদের জন্য সুযোগ কম হতে পারে। পক্ষপাতিত্বপূর্ণ ডাটা AI সিস্টেমের মাধ্যমে সিদ্ধান্ত নিয়ে সমাজে বৈষম্য সৃষ্টি করতে পারে। ২০১৮ সালে Amazon একটি AI সিস্টেম ব্যবহার করেছিল, যা চাকরি আবেদনকারীদের রেজ্যুমে বিশ্লেষণ করত। সিস্টেমটি নারীদের প্রতি পক্ষপাতিত্ব করছিল, কারণ এটি পুরুষ প্রার্থীদের বেশি গুরুত্বপূর্ণ মনে করত এবং নারীদের চাকরি সম্পর্কিত রেজ্যুমে কম গুরুত্ব দিত। তারা সিস্টেমটি পরিবর্তন করতে বাধ্য হয়।
যখন AI সিস্টেম পক্ষপাতিত্বপূর্ণ ডাটা ব্যবহার করে সিদ্ধান্ত নেয়, তখন এটি মানবাধিকার লঙ্ঘনও করতে পারে। উদাহরণস্বরূপ, কিছু দেশে AI সিস্টেমের মাধ্যমে পুলিশি নজরদারি বা সামাজিক শ্রেণীবিভাজন করা হয়, যার ফলে কিছু জনগণ অসংগতভাবে ক্ষতিগ্রস্ত হতে পারে। ২০১৬ সালে, যুক্তরাষ্ট্রে কিছু পুলিশ বিভাগের AI সিস্টেম দ্বারা অপরাধী শনাক্তকরণে পক্ষপাতিত্বের অভিযোগ ওঠে। যেখানে কৃষ্ণাঙ্গ জনগণের বিরুদ্ধে বেশি সিদ্ধান্ত নেওয়া হচ্ছিল। এই ধরনের পক্ষপাতিত্ব মানবাধিকার এবং ন্যায়বিচারের লঙ্ঘন সৃষ্টি করতে পারে।
AI সিস্টেমের মাধ্যমে যে সমস্ত ব্যবসায়িক সিদ্ধান্ত নেওয়া হয় সেগুলি পক্ষপাতিত্বপূর্ণ ডাটার উপর ভিত্তি করে সঠিক ফলাফল দিতে পারে না। ২০১৯ সালে কিছু ব্যাংক অও সিস্টেম ব্যবহার করে ঋণ প্রদান করছিল, কিন্তু সিস্টেমটি অভ্যন্তরীণ ডাটার কারণে গরীব গ্রাহকদের ঋণ অনুমোদন করতে সমস্যায় পড়ে। এভাবে AI সিস্টেমে ব্যবহৃত পক্ষপাতিত্বপূর্ণ ডাটা সঠিক ব্যবসায়িক সিদ্ধান্তেও বাঁধা হয়ে দাঁড়ায়। AI এর পক্ষপাতিত্ব কমানোর প্রথম পদক্ষেপ হলো বৈচিত্র্যময় ডাটা সংগ্রহ করা। ডাটার মধ্যে যেন সকল সামাজিক, সাংস্কৃতিক, লিঙ্গভিত্তিক এবং জাতিগত বৈচিত্র্য অন্তর্ভুক্ত থাকে, তা নিশ্চিত করতে হবে। যদি কোনো স্বাস্থ্য সম্পর্কিত AI সিস্টেম তৈরি করা হয়, তবে ডাটাতে বিভিন্ন ধরনের রোগী, বিভিন্ন বয়স, লিঙ্গ এবং জাতিগত ব্যতিক্রম অন্তর্ভুক্ত করা উচিত।
তাছাড়া পক্ষপাতিত্বের আর একটি বড় কারণ হল অপরিষ্কৃত ডাটা। AI সিস্টেমে ব্যবহৃত ডাটা পরিষ্কার করা এবং পক্ষপাতিত্বের সমস্ত উপাদানকে চিহ্নিত করে তা বাদ দেওয়া অত্যন্ত জরুরি। কিছু কোম্পানি তাদের AI সিস্টেমের ডাটা থেকে বয়স, লিঙ্গ, বা জাতিগত তথ্য বাদ দিতে পারে, যাতে সিস্টেমটি কেবল কর্মদক্ষতার ভিত্তিতে সিদ্ধান্ত নিতে পারে। অ্যালগোরিদমের স্বচ্ছতা এবং মনিটরিং করে অও অ্যালগোরিদমের স্বচ্ছতা নিশ্চিত করতে হবে। যাতে আমরা জানি যে কীভাবে ডাটা এবং অ্যালগোরিদম কাজ করছে। অ্যালগোরিদমের কার্যকলাপ নিয়মিত মনিটর করা এবং তা সঠিকভাবে পর্যালোচনা করা অত্যন্ত গুরুত্বপূর্ণ। সিস্টেমে কোথাও পক্ষপাতিত্ব থাকলে তা দ্রুত চিহ্নিত করা এবং সংশোধন করা যেতে পারে।
ফিডব্যাক লুপ এবং সমন্বয়ে AI সিস্টেমের মধ্যে একটি সঠিক ফিডব্যাক মেকানিজম স্থাপন করা উচিত যার মাধ্যমে ব্যবহারকারীদের অভিজ্ঞতা বা বাস্তব সময়ের ফলাফল দ্বারা অ্যালগোরিদমকে সংশোধন করা যায়। এই প্রক্রিয়ায় পক্ষপাতিত্বের প্রবণতা কমানো সম্ভব হতে পারে। AI তৈরি করার সময় এথিক্যাল গাইডলাইন এবং নীতিমালা অনুসরণ করা উচিত। এমনকি বিভিন্ন সরকার এবং আন্তর্জাতিক সংস্থাগুলোর উচিত এই বিষয়ে নির্দিষ্ট নীতিমালা এবং নিয়ন্ত্রণ ব্যবস্থা গঠন করা যা AI সিস্টেমের পক্ষপাতিত্ব কমাতে সাহায্য করবে।
AI সিস্টেমের মাধ্যমে সিদ্ধান্ত নেওয়ার প্রক্রিয়ার মধ্যে ডাটা এবং অ্যালগোরিদমের পক্ষপাতিত্ব একটি বড় সমস্যা হয়ে দাঁড়ালেও পক্ষপাতিত্ব নিয়ন্ত্রণ করা এবং সিস্টেমগুলোকে আরও নিরপেক্ষ ও মানবাধিকার সংরক্ষণকারী করে তোলা সম্ভব। যদি আমরা সঠিকভাবে ডাটা সংগ্রহ, পরিষ্কারকরণ এবং অ্যালগোরিদমে নিয়ন্ত্রণ প্রক্রিয়া গ্রহণ করি তবে অও সিস্টেমের মাধ্যমে নেওয়া সিদ্ধান্তগুলো আরো সুবিবেচিত এবং নিখুঁত হবে।


