এআই নীতিশাস্ত্র কী?

এআই নীতিশাস্ত্র কী?

শব্দটি উচ্চস্বরে শোনালেও, লক্ষ্যটি অত্যন্ত বাস্তবসম্মত: কৃত্রিম বুদ্ধিমত্তা (AI) সিস্টেমগুলিকে এমনভাবে তৈরি করা যা মানুষ বিশ্বাস করতে পারে - কারণ এগুলি এমনভাবে ডিজাইন, তৈরি এবং ব্যবহৃত হয় যা মানবাধিকারকে সম্মান করে, ক্ষতি কমায় এবং প্রকৃত সুবিধা প্রদান করে। এটাই - বেশিরভাগ ক্ষেত্রে। 

এর পরে আপনি যে প্রবন্ধগুলি পড়তে পছন্দ করতে পারেন:

🔗 AI তে MCP কি?
মডুলার কম্পিউট প্রোটোকল এবং AI-তে এর ভূমিকা ব্যাখ্যা করে।

🔗 এজ এআই কী?
কীভাবে প্রান্ত-ভিত্তিক প্রক্রিয়াকরণ দ্রুত, স্থানীয় AI সিদ্ধান্ত গ্রহণকে সক্ষম করে তা কভার করে।

🔗 জেনারেটিভ এআই কী?
এমন মডেলগুলি উপস্থাপন করে যা টেক্সট, ছবি এবং অন্যান্য মৌলিক বিষয়বস্তু তৈরি করে।

🔗 এজেন্টিক এআই কী?
লক্ষ্য-চালিত সিদ্ধান্ত গ্রহণে সক্ষম স্বায়ত্তশাসিত AI এজেন্টদের বর্ণনা করে।


এআই নীতিশাস্ত্র কী? এর সহজ সংজ্ঞা 🧭

AI নীতিশাস্ত্র হল নীতি, প্রক্রিয়া এবং রেলিংয়ের একটি সেট যা আমরা কীভাবে AI ডিজাইন, বিকাশ, স্থাপন এবং পরিচালনা করি তা নির্দেশ করে যাতে এটি মানবাধিকার, ন্যায্যতা, জবাবদিহিতা, স্বচ্ছতা এবং সামাজিক কল্যাণকে সমুন্নত রাখে। এটিকে অ্যালগরিদমের জন্য প্রতিদিনের নিয়ম হিসাবে ভাবুন - যেখানে জিনিসগুলি ভুল হতে পারে এমন অদ্ভুত কোণগুলির জন্য অতিরিক্ত চেক সহ।

বিশ্বব্যাপী টাচস্টোনগুলি এটিকে সমর্থন করে: ইউনেস্কোর সুপারিশ মানবাধিকার, মানব তত্ত্বাবধান এবং ন্যায়বিচারকে কেন্দ্র করে, স্বচ্ছতা এবং ন্যায্যতাকে অ-আলোচনাযোগ্য [1]। OECD-এর AI নীতিগুলি বিশ্বাসযোগ্য AI-এর লক্ষ্য রাখে যা গণতান্ত্রিক মূল্যবোধকে সম্মান করে এবং নীতি ও প্রকৌশল দলগুলির জন্য ব্যবহারিক থাকে [2]।

সংক্ষেপে, AI নীতিশাস্ত্র কেবল দেয়ালে লেখা পোস্টার নয়। এটি এমন একটি খেলার বই যা দলগুলি ঝুঁকি পূর্বাভাস দিতে, বিশ্বাসযোগ্যতা প্রমাণ করতে এবং মানুষকে রক্ষা করতে ব্যবহার করে। NIST-এর AI ঝুঁকি ব্যবস্থাপনা কাঠামো নীতিশাস্ত্রকে AI জীবনচক্র জুড়ে সক্রিয় ঝুঁকি ব্যবস্থাপনার মতো বিবেচনা করে [3]।

 

এআই নীতিশাস্ত্র

ভালো AI নীতিশাস্ত্র কী তৈরি করে ✅

এখানে স্পষ্ট সংস্করণ। একটি ভালো এআই নীতিশাস্ত্র প্রোগ্রাম:

  • লাইভ, ল্যামিনেটেড নয় - এমন নীতি যা প্রকৃত প্রকৌশল অনুশীলন এবং পর্যালোচনা পরিচালনা করে।

  • সমস্যা তৈরি থেকে শুরু হয় - যদি উদ্দেশ্য ভুল হয়, তাহলে কোনও ন্যায্যতা সংশোধন এটিকে রক্ষা করতে পারবে না।

  • নথির সিদ্ধান্ত - কেন এই তথ্য, কেন এই মডেল, কেন এই থ্রেশহোল্ড।

  • প্রেক্ষাপট সহ পরীক্ষা - শুধুমাত্র সামগ্রিক নির্ভুলতা (একটি মূল NIST থিম) নয়, উপগোষ্ঠী দ্বারা মূল্যায়ন করুন [3]।

  • এর কাজ দেখায় - মডেল কার্ড, ডেটাসেট ডকুমেন্টেশন এবং স্পষ্ট ব্যবহারকারীর যোগাযোগ [5]।

  • জবাবদিহিতা তৈরি করে - নামযুক্ত মালিক, বৃদ্ধির পথ, নিরীক্ষণযোগ্যতা।

  • খোলা জায়গায় লেনদেনের ভারসাম্য বজায় রাখে - নিরাপত্তা বনাম উপযোগিতা বনাম গোপনীয়তা, লিখিতভাবে।

  • আইনের সাথে সংযুক্ত - ঝুঁকি-ভিত্তিক প্রয়োজনীয়তা যা প্রভাবের সাথে নিয়ন্ত্রণকে স্কেল করে (EU AI আইন দেখুন) [4]।

যদি এটি একটি পণ্যের সিদ্ধান্ত পরিবর্তন না করে, তবে এটি নীতিশাস্ত্র নয় - এটি সাজসজ্জা।


বড় প্রশ্নের দ্রুত উত্তর: AI নীতিশাস্ত্র কী? 🥤

দলগুলি বারবার তিনটি পুনরাবৃত্ত প্রশ্নের উত্তর এভাবেই দেয়:

  1. আমাদের কি এটা তৈরি করা উচিত?

  2. যদি হ্যাঁ, তাহলে আমরা কীভাবে ক্ষতি কমাব এবং তা প্রমাণ করব?

  3. যখন পরিস্থিতি উল্টো দিকে চলে যায়, তখন কে দায়ী এবং এরপর কী হবে?

একঘেয়েমিপূর্ণভাবে ব্যবহারিক। আশ্চর্যজনকভাবে কঠিন। মূল্যবান।


একটি ৬০ সেকেন্ডের মিনি-কেস (ব্যবহারিক অভিজ্ঞতা) 📎

একটি ফিনটেক টিম দুর্দান্ত সামগ্রিক নির্ভুলতার সাথে একটি জালিয়াতি মডেল পাঠায়। দুই সপ্তাহ পরে, একটি নির্দিষ্ট অঞ্চল থেকে সমর্থন টিকিটের স্পাইক-বৈধ পেমেন্ট ব্লক করা হয়। একটি উপগোষ্ঠী পর্যালোচনা দেখায় যে সেই লোকেলের জন্য প্রত্যাহার গড়ের চেয়ে 12 পয়েন্ট কম। দলটি ডেটা কভারেজ পুনর্বিবেচনা করে, আরও ভাল উপস্থাপনা সহ পুনরায় প্রশিক্ষণ দেয় এবং একটি আপডেট করা মডেল কার্ড যা পরিবর্তন, পরিচিত সতর্কতা এবং ব্যবহারকারীর আবেদনের পথ নথিভুক্ত করে। নির্ভুলতা এক পয়েন্ট কমে যায়; গ্রাহকের আস্থা লাফিয়ে ওঠে। এটি ঝুঁকি ব্যবস্থাপনা এবং ব্যবহারকারীর সম্মান , কোনও পোস্টার নয় [3][5]।


আপনি আসলে ব্যবহার করতে পারেন এমন টুল এবং ফ্রেমওয়ার্ক 📋

(ছোটখাটো কিছু অদ্ভুত ব্যাপার ইচ্ছাকৃতভাবে অন্তর্ভুক্ত করা হয়েছে - এটাই বাস্তব জীবন।)

টুল বা ফ্রেমওয়ার্ক পাঠকবর্গ দাম কেন এটি কাজ করে মন্তব্য
NIST AI ঝুঁকি ব্যবস্থাপনা কাঠামো পণ্য, ঝুঁকি, নীতি বিনামূল্যে পরিষ্কার ফাংশন - পরিচালনা, মানচিত্র, পরিমাপ, পরিচালনা - দলগুলিকে সারিবদ্ধ করুন স্বেচ্ছাসেবী, ব্যাপকভাবে উল্লেখিত [3]
OECD AI নীতিমালা নির্বাহী, নীতিনির্ধারকগণ বিনামূল্যে বিশ্বস্ত AI-এর জন্য মূল্যবোধ + ব্যবহারিক সুপারিশ একটি দৃঢ় শাসনব্যবস্থা উত্তর-তারা [2]
ইইউ এআই আইন (ঝুঁকি-ভিত্তিক) আইনি, সম্মতি, সিটিও বিনামূল্যে* ঝুঁকির স্তরগুলি উচ্চ-প্রভাবশালী ব্যবহারের জন্য আনুপাতিক নিয়ন্ত্রণ নির্ধারণ করে সম্মতি খরচ পরিবর্তিত হয় [4]
মডেল কার্ড এমএল ইঞ্জিনিয়ার, পিএম বিনামূল্যে একটি মডেল কী, কী করে এবং কোথায় ব্যর্থ হয় তা মানসম্মত করে কাগজ + উদাহরণ বিদ্যমান [5]
ডেটাসেট ডকুমেন্টেশন ("ডেটাশিট") তথ্য বিজ্ঞানীরা বিনামূল্যে তথ্যের উৎস, কভারেজ, সম্মতি এবং ঝুঁকি ব্যাখ্যা করে এটিকে পুষ্টির লেবেলের মতো ব্যবহার করুন

গভীর ডুব ১ - তত্ত্বে নয়, গতিতে নীতি 🏃

  • ন্যায্যতা - জনসংখ্যা এবং প্রেক্ষাপট জুড়ে কর্মক্ষমতা মূল্যায়ন করুন; সামগ্রিক মেট্রিক্স ক্ষতি লুকায় [3]।

  • জবাবদিহিতা - ডেটা, মডেল এবং স্থাপনার সিদ্ধান্তের জন্য মালিকদের নিয়োগ করুন। সিদ্ধান্তের লগ রাখুন।

  • স্বচ্ছতা - মডেল কার্ড ব্যবহার করুন; ব্যবহারকারীদের বলুন যে সিদ্ধান্ত কতটা স্বয়ংক্রিয় এবং কোন কোন উপায় বিদ্যমান [5]।

  • মানব তত্ত্বাবধান - উচ্চ-ঝুঁকিপূর্ণ সিদ্ধান্তের জন্য মানুষকে প্রকৃত স্টপ/ওভাররাইড ক্ষমতার সাথে (স্পষ্টভাবে ইউনেস্কো দ্বারা পূর্বাভাসিত) [1]।

  • গোপনীয়তা এবং নিরাপত্তা - তথ্য কমানো এবং সুরক্ষিত করা; অনুমান-সময় ফাঁস এবং ডাউনস্ট্রিম অপব্যবহার বিবেচনা করুন।

  • কল্যাণ - কেবল সুষ্ঠু KPI নয়, সামাজিক কল্যাণ প্রদর্শন করুন (OECD এই ভারসাম্য তৈরি করে) [2]।

ছোট্ট বিচ্যুতি: দলগুলি মাঝে মাঝে মেট্রিক নাম নিয়ে ঘন্টার পর ঘন্টা তর্ক করে, কিন্তু প্রকৃত ক্ষতির প্রশ্নটি উপেক্ষা করে। মজার ব্যাপার হল, এটা কীভাবে ঘটে।


গভীর ডুব ২ - ঝুঁকি এবং সেগুলি কীভাবে পরিমাপ করা যায় 📏

ক্ষতিকে পরিমাপযোগ্য ঝুঁকি হিসেবে বিবেচনা করলে নীতিগত AI বাস্তবে রূপ নেয়:

  • প্রসঙ্গ ম্যাপিং - প্রত্যক্ষ ও পরোক্ষভাবে কারা প্রভাবিত হয়? সিস্টেমের সিদ্ধান্ত গ্রহণের ক্ষমতা কী?

  • ডেটা ফিটনেস - উপস্থাপনা, প্রবাহ, লেবেলিং গুণমান, সম্মতির পথ।

  • মডেল আচরণ - বিতরণ শিফট, প্রতিপক্ষের প্রম্পট, বা দূষিত ইনপুটগুলির অধীনে ব্যর্থতা মোড।

  • প্রভাব মূল্যায়ন - তীব্রতা × সম্ভাবনা, প্রশমন, এবং অবশিষ্ট ঝুঁকি।

  • জীবনচক্র নিয়ন্ত্রণ - সমস্যা তৈরি থেকে শুরু করে স্থাপনা-পরবর্তী পর্যবেক্ষণ পর্যন্ত।

NIST এটিকে চারটি ফাংশনে বিভক্ত করে যা দলগুলি চাকাটি পুনরায় উদ্ভাবন না করেও গ্রহণ করতে পারে: শাসন, মানচিত্র, পরিমাপ, পরিচালনা [3]।


গভীর ডুব ৩ - এমন ডকুমেন্টেশন যা আপনাকে পরে বাঁচায় 🗂️

দুটি নম্র শিল্পকর্ম যেকোনো স্লোগানের চেয়েও বেশি কিছু করে:

  • মডেল কার্ড - মডেলটি কীসের জন্য, কীভাবে এটি মূল্যায়ন করা হয়েছিল, কোথায় এটি ব্যর্থ হয়েছে, নীতিগত বিবেচনা এবং সতর্কতা - সংক্ষিপ্ত, কাঠামোগত, পাঠযোগ্য [5]।

  • ডেটাসেট ডকুমেন্টেশন ("ডেটাশিট") - কেন এই ডেটা বিদ্যমান, এটি কীভাবে সংগ্রহ করা হয়েছিল, কাদের প্রতিনিধিত্ব করা হয়েছে, জ্ঞাত ফাঁকগুলি এবং প্রস্তাবিত ব্যবহার।

যদি কখনও নিয়ন্ত্রক বা সাংবাদিকদের কাছে ব্যাখ্যা করতে হয় যে কেন একজন মডেল খারাপ আচরণ করেছেন, তাহলে আপনি এই লেখার জন্য আপনার অতীতকে ধন্যবাদ জানাবেন। ভবিষ্যতে - আপনি আপনার অতীত কফি কিনবেন।


গভীরে ডুব দেওয়া ৪ - এমন শাসনব্যবস্থা যা আসলেই কামড়ায় 🧩

  • ঝুঁকির স্তর নির্ধারণ করুন - ঝুঁকি-ভিত্তিক ধারণা ধার করুন যাতে উচ্চ-প্রভাবশালী ব্যবহারের ক্ষেত্রে আরও গভীর তদন্ত করা যায় [4]।

  • স্টেজ গেটস - গ্রহণের সময়, উৎক্ষেপণের আগে এবং উৎক্ষেপণের পরে নীতিশাস্ত্র পর্যালোচনা। পনেরোটি গেট নয়। তিনটি যথেষ্ট।

  • কর্তব্য পৃথকীকরণ - ডেভেলপাররা প্রস্তাব করেন, ঝুঁকি অংশীদাররা পর্যালোচনা করেন, নেতারা স্বাক্ষর করেন। স্পষ্ট লাইন।

  • ঘটনার প্রতিক্রিয়া - কে একটি মডেল থামায়, ব্যবহারকারীদের কীভাবে অবহিত করা হয়, প্রতিকার কেমন দেখায়।

  • স্বাধীন নিরীক্ষা - প্রথমে অভ্যন্তরীণ; যেখানে দাবির পরিমাণ বেশি, সেখানে বাহ্যিক।

  • প্রশিক্ষণ এবং প্রণোদনা - পুরষ্কার সমস্যাগুলি গোপন না করে, আগে থেকেই সামনে আসা।

আসুন সৎ হই: যদি শাসন কখনও না , তাহলে সেটা শাসন নয়।


ডিপ ডাইভ ৫ - লুপে থাকা মানুষ, প্রপস হিসেবে নয় 👩⚖️

মানুষের তদারকি কোনও চেকবক্স নয় - এটি একটি নকশা পছন্দ:

  • যখন মানুষ সিদ্ধান্ত নেয় - স্পষ্ট সীমা যেখানে একজন ব্যক্তিকে পর্যালোচনা করতে হবে, বিশেষ করে উচ্চ-ঝুঁকিপূর্ণ ফলাফলের জন্য।

  • সিদ্ধান্ত গ্রহণকারীদের জন্য ব্যাখ্যাযোগ্যতা - মানুষকে কারণ এবং অনিশ্চয়তা

  • ব্যবহারকারীর প্রতিক্রিয়া লুপ - ব্যবহারকারীদের স্বয়ংক্রিয় সিদ্ধান্তের প্রতিদ্বন্দ্বিতা করতে বা সংশোধন করতে দিন।

  • অ্যাক্সেসিবিলিটি - এমন ইন্টারফেস যা বিভিন্ন ব্যবহারকারী বুঝতে এবং বাস্তবে ব্যবহার করতে পারে।

ইউনেস্কোর নির্দেশনা এখানে সহজ: মানুষের মর্যাদা এবং তদারকি মূল বিষয়, ঐচ্ছিক নয়। পণ্যটি এমনভাবে তৈরি করুন যাতে মানুষ ভূমির ক্ষতি করার আগে হস্তক্ষেপ করতে পারে [1]।


পার্শ্ব নোট - পরবর্তী সীমানা: নিউরোটেক 🧠

AI যখন নিউরোটেকনোলজির সাথে মিশে যায়, তখন মানসিক গোপনীয়তা এবং চিন্তার স্বাধীনতা বাস্তব নকশা বিবেচনার বিষয় হয়ে ওঠে। একই নীতি প্রযোজ্য: অধিকার-কেন্দ্রিক নীতি [1], নকশা অনুসারে বিশ্বাসযোগ্য শাসন [2], এবং উচ্চ-ঝুঁকিপূর্ণ ব্যবহারের জন্য আনুপাতিক সুরক্ষা ব্যবস্থা [4]। পরে রেলিং আটকে রাখার পরিবর্তে প্রাথমিক রেলিং তৈরি করুন।


দলগুলি কীভাবে উত্তর দেয় AI নীতিশাস্ত্র কী? বাস্তবে - একটি কর্মপ্রবাহ 🧪

এই সহজ লুপটি ব্যবহার করে দেখুন। এটি নিখুঁত নয়, তবে এটি একগুঁয়েভাবে কার্যকর:

  1. উদ্দেশ্য পরীক্ষা - আমরা কোন মানবিক সমস্যার সমাধান করছি, এবং কে লাভবান হবে বা ঝুঁকি বহন করবে?

  2. প্রসঙ্গ মানচিত্র - স্টেকহোল্ডার, পরিবেশ, সীমাবদ্ধতা, জ্ঞাত বিপদ।

  3. তথ্য পরিকল্পনা - উৎস, সম্মতি, প্রতিনিধিত্ব, ধারণ, ডকুমেন্টেশন।

  4. নিরাপত্তার জন্য নকশা - প্রতিপক্ষীয় পরীক্ষা, লাল-দলবদ্ধকরণ, গোপনীয়তা-বাই-নকশা।

  5. ন্যায্যতা নির্ধারণ করুন - ডোমেন-উপযুক্ত মেট্রিক্স চয়ন করুন; নথির বিনিময়।

  6. ব্যাখ্যাযোগ্যতা পরিকল্পনা - কী ব্যাখ্যা করা হবে, কাকে, এবং কীভাবে আপনি উপযোগিতা যাচাই করবেন।

  7. মডেল কার্ড - তাড়াতাড়ি খসড়া তৈরি করুন, কাজ শেষ হওয়ার সাথে সাথে আপডেট করুন, লঞ্চের সময় প্রকাশ করুন [5]।

  8. শাসনের দ্বার - জবাবদিহিকারী মালিকদের সাথে ঝুঁকি পর্যালোচনা; NIST এর ফাংশন ব্যবহার করে কাঠামো [3]।

  9. লঞ্চ-পরবর্তী পর্যবেক্ষণ - মেট্রিক্স, ড্রিফ্ট সতর্কতা, ঘটনার প্লেবুক, ব্যবহারকারীর আবেদন।

যদি কোন পদক্ষেপ ভারী মনে হয়, তাহলে ঝুঁকির মুখে ফেলুন। এটাই কৌশল। বানান সংশোধন বটকে অতিরিক্ত প্রকৌশলী করে কেউই সাহায্য করে না।


নীতিশাস্ত্র বনাম সম্মতি - মসলাদার কিন্তু প্রয়োজনীয় পার্থক্য 🌶️

  • নীতিশাস্ত্র জিজ্ঞাসা করে: এটা কি মানুষের জন্য সঠিক জিনিস?

  • সম্মতি জিজ্ঞাসা করে: এটি কি নিয়মকানুন পূরণ করে?

তোমার দুটোই দরকার। ইইউর ঝুঁকি-ভিত্তিক মডেল তোমার সম্মতির মেরুদণ্ড হতে পারে, কিন্তু তোমার নীতিশাস্ত্র কর্মসূচি ন্যূনতম সীমার বাইরেও এগিয়ে যাওয়া উচিত - বিশেষ করে অস্পষ্ট বা নতুন ব্যবহারের ক্ষেত্রে [4]।

একটি দ্রুত (ত্রুটিপূর্ণ) রূপক: সম্মতি হল বেড়া; নীতিশাস্ত্র হল রাখাল। বেড়া আপনাকে সীমানায় রাখে; রাখাল আপনাকে সঠিক পথে নিয়ে যায়।


সাধারণ সমস্যা - এবং এর পরিবর্তে কী করতে হবে 🚧

  • ফাঁদ: নীতিশাস্ত্র থিয়েটার - কোনও সম্পদ ছাড়াই অভিনব নীতি।
    সমাধান: সময়, মালিকদের এবং পর্যালোচনা চেকপয়েন্টগুলি উৎসর্গ করুন।

  • বিপত্তি: ক্ষতির গড় নির্মূল - দুর্দান্ত সামগ্রিক মেট্রিক্স উপগোষ্ঠীর ব্যর্থতা লুকায়।
    সমাধান: সর্বদা প্রাসঙ্গিক উপ-জনসংখ্যা [3] অনুসারে মূল্যায়ন করুন।

  • ফাঁদ: নিরাপত্তার ছদ্মবেশে গোপনীয়তা - ব্যবহারকারীদের কাছ থেকে তথ্য গোপন করা।
    সমাধান: সহজ ভাষায় ক্ষমতা, সীমা এবং আশ্রয় প্রকাশ করুন [5]।

  • সমস্যা: শেষে অডিট - লঞ্চের ঠিক আগে সমস্যা খুঁজে বের করা।
    সমাধান: বাম দিকে সরান - নীতিশাস্ত্রকে নকশা এবং তথ্য সংগ্রহের অংশ করুন।

  • বিপদ: বিচার ছাড়াই চেকলিস্ট - অর্থহীন নয়, ফর্মগুলি অনুসরণ করুন।
    সমাধান: বিশেষজ্ঞ পর্যালোচনা এবং ব্যবহারকারী গবেষণার সাথে টেমপ্লেটগুলিকে একত্রিত করুন।


প্রায়শই জিজ্ঞাসিত প্রশ্নাবলী - যে বিষয়গুলি আপনাকে যাইহোক জিজ্ঞাসা করা হবে ❓

এআই নীতিশাস্ত্র কি উদ্ভাবন-বিরোধী?
না। এটি কার্যকর উদ্ভাবনের পক্ষে। নীতিশাস্ত্র পক্ষপাতদুষ্ট ব্যবস্থার মতো মৃতপ্রায় এড়ায় যা প্রতিক্রিয়া বা আইনি ঝামেলার জন্ম দেয়। OECD কাঠামো স্পষ্টভাবে নিরাপত্তার সাথে উদ্ভাবনকে উৎসাহিত করে [2]।

আমাদের পণ্য যদি কম ঝুঁকিপূর্ণ হয় তাহলে কি আমাদের এটির প্রয়োজন হবে?
হ্যাঁ, তবে হালকা। আনুপাতিক নিয়ন্ত্রণ ব্যবহার করুন। ঝুঁকি-ভিত্তিক ধারণাটি ইইউ পদ্ধতিতে আদর্শ [4]।

কোন কোন ডকুমেন্ট অবশ্যই থাকা উচিত?
সর্বনিম্ন: আপনার প্রধান ডেটাসেটের জন্য ডেটাসেট ডকুমেন্টেশন, প্রতিটি মডেলের জন্য একটি মডেল কার্ড এবং একটি রিলিজ ডিসিশন লগ [5]।

এআই নীতিশাস্ত্রের মালিক কে?
প্রত্যেকেরই আচরণের মালিকানা আছে, কিন্তু পণ্য, ডেটা বিজ্ঞান এবং ঝুঁকি দলগুলির নির্দিষ্ট দায়িত্বের প্রয়োজন। NIST-এর কার্যকারিতা একটি ভালো ভারা [3]।


অনেকদিন পড়িনি - শেষ মন্তব্য 💡

যদি আপনি এই সমস্ত কিছু এড়িয়ে যান, তাহলে মূল কথাটি হল: AI নীতিশাস্ত্র কী? এটি এমন একটি ব্যবহারিক শৃঙ্খলা যা মানুষ বিশ্বাস করতে পারে এমন AI তৈরি করে। ব্যাপকভাবে গৃহীত নির্দেশিকা - UNESCO-এর অধিকার-কেন্দ্রিক দৃষ্টিভঙ্গি এবং OECD-এর বিশ্বাসযোগ্য AI নীতিগুলির সাথে সঙ্গতিপূর্ণ। এটি কার্যকর করার জন্য NIST-এর ঝুঁকি কাঠামো ব্যবহার করুন এবং মডেল কার্ড এবং ডেটাসেট ডকুমেন্টেশন সহ পাঠান যাতে আপনার পছন্দগুলি সুস্পষ্ট হয়। তারপর ব্যবহারকারীদের, স্টেকহোল্ডারদের, আপনার নিজস্ব পর্যবেক্ষণের কথা শুনতে থাকুন - এবং সামঞ্জস্য করুন। নীতিশাস্ত্র এক-একটি-এক-একটি-করে নেওয়া জিনিস নয়; এটি একটি অভ্যাস।

আর হ্যাঁ, মাঝে মাঝে তুমি অবশ্যই ঠিক করবে। এটা ব্যর্থতা নয়। এটাই কাজ। 🌱


তথ্যসূত্র

  1. ইউনেস্কো - কৃত্রিম বুদ্ধিমত্তার নীতিশাস্ত্রের সুপারিশ (২০২১)। লিঙ্ক

  2. OECD - AI নীতিমালা (২০১৯)। লিঙ্ক

  3. NIST - কৃত্রিম বুদ্ধিমত্তা ঝুঁকি ব্যবস্থাপনা কাঠামো (AI RMF 1.0) (2023) (PDF)। লিঙ্ক

  4. EUR-Lex - নিয়ন্ত্রণ (EU) 2024/1689 (AI আইন)। লিঙ্ক

  5. মিচেল এবং অন্যান্য - "মডেল রিপোর্টিংয়ের জন্য মডেল কার্ড" (এসিএম, ২০১৯)। লিঙ্ক


অফিসিয়াল এআই অ্যাসিস্ট্যান্ট স্টোরে সর্বশেষ এআই খুঁজুন

আমাদের সম্পর্কে

ব্লগে ফিরে যান