एक्स्प्लेनेबल एआई ती वाक्यांशहरू मध्ये एक हो जुन डिनरमा राम्रो सुनिन्छ र एल्गोरिथ्मले चिकित्सा निदानलाई धक्का दिने, ऋण स्वीकृत गर्ने, वा ढुवानीको फ्ल्याग गर्ने क्षणमा एकदमै महत्त्वपूर्ण हुन्छ। यदि तपाईंले कहिल्यै सोच्नुभएको छ भने, ठीक छ, तर किन त्यसो गर्यो ... तपाईं पहिले नै एक्स्प्लेनेबल एआई क्षेत्रमा हुनुहुन्छ। यो विचारलाई सरल भाषामा अनप्याक गरौं - कुनै जादू छैन, केवल विधिहरू, व्यापार-अफहरू, र केही कठोर सत्यहरू।
यसपछि पढ्न मन लाग्ने लेखहरू:
🔗 एआई बायस भनेको के हो?
एआई पूर्वाग्रह, यसको स्रोत, प्रभाव र न्यूनीकरण रणनीतिहरू बुझ्नुहोस्।.
🔗 भविष्यसूचक एआई भनेको के हो?
भविष्यसूचक एआई, सामान्य प्रयोगहरू, फाइदाहरू, र व्यावहारिक सीमितताहरू अन्वेषण गर्नुहोस्।.
🔗 ह्युमनोइड रोबोट एआई भनेको के हो?
एआईले मानवजस्तै रोबोटहरूलाई कसरी शक्ति दिन्छ, क्षमताहरू, उदाहरणहरू र चुनौतीहरू सिक्नुहोस्।.
🔗 एआई ट्रेनर भनेको के हो?
एआई प्रशिक्षकहरूले के गर्छन्, आवश्यक सीपहरू, र करियर मार्गहरू पत्ता लगाउनुहोस्।.
स्पष्ट पार्न सकिने एआईको वास्तवमा अर्थ के हो?
व्याख्यायोग्य एआई भनेको एआई प्रणालीहरूको डिजाइन र प्रयोग गर्ने अभ्यास हो ताकि तिनीहरूको आउटपुटहरू मानिसहरूले बुझ्न सकून् - निर्णयहरूबाट प्रभावित वा जिम्मेवार विशिष्ट व्यक्तिहरू, केवल गणित विजार्डहरू मात्र होइन। NIST ले यसलाई चार सिद्धान्तहरूमा विभाजित गर्दछ: व्याख्या प्रदान गर्नुहोस् , दर्शकहरूको लागि अर्थपूर्ण बनाउनुहोस् व्याख्या शुद्धता (मोडेलप्रति वफादार), र ज्ञान सीमाहरूको (प्रणालीले के जान्दछ भनेर बढाइचढाइ नगर्नुहोस्) [1]।
छोटो ऐतिहासिक कुरालाई पन्छाएर: सुरक्षा-महत्वपूर्ण डोमेनहरू यसमा प्रारम्भिक रूपमा धकेलिएका थिए, जुन मोडेलहरूलाई लक्षित गर्दै थिए जुन सही रहन्छन् तर "लूपमा" विश्वास गर्न पर्याप्त व्याख्यायोग्य हुन्छन्। उत्तर ताराले प्रदर्शनलाई रद्दीटोकरी नगरी
किन स्पष्ट पार्न सकिने एआई तपाईंले सोचेभन्दा बढी महत्त्वपूर्ण छ 💡
-
विश्वास र अपनाउने - मानिसहरूले प्रश्न गर्न, प्रश्न गर्न र सच्याउन सक्ने प्रणालीहरू स्वीकार गर्छन्।
-
जोखिम र सुरक्षा - स्केलमा तपाईंलाई आश्चर्यचकित गर्नु अघि सतह विफलता मोडहरूको व्याख्या।
-
नियामक अपेक्षाहरू - EU मा, AI ऐनले स्पष्ट पारदर्शिता कर्तव्यहरू सेट गर्दछ - जस्तै, मानिसहरूलाई निश्चित सन्दर्भहरूमा AI सँग अन्तरक्रिया गर्दा बताउने र AI-उत्पन्न वा हेरफेर गरिएको सामग्रीलाई उचित रूपमा लेबल गर्ने [2]।
इमानदार बनौं - सुन्दर ड्यासबोर्डहरू स्पष्टीकरण होइनन्। राम्रो स्पष्टीकरणले व्यक्तिलाई अब के गर्ने भनेर निर्णय गर्न मद्दत गर्छ।.
व्याख्यायोग्य एआईलाई के ले उपयोगी बनाउँछ ✅
कुनै पनि XAI विधिको मूल्याङ्कन गर्दा, सोध्नुहोस्:
-
निष्ठा - के व्याख्याले मोडेलको व्यवहारलाई प्रतिबिम्बित गर्छ, वा केवल सान्त्वनादायी कथा बताउँछ?
-
दर्शकहरूको लागि उपयोगिता - डेटा वैज्ञानिकहरू ग्रेडियन्टहरू चाहन्छन्; चिकित्सकहरू प्रति-तथ्याङ्क वा नियमहरू चाहन्छन्; ग्राहकहरू सरल भाषाका कारणहरू र अर्को चरणहरू चाहन्छन्।
-
स्थिरता - सानो इनपुट परिवर्तनले कथालाई A बाट Z मा परिवर्तन गर्नु हुँदैन।
-
कार्यक्षमता - यदि आउटपुट अवांछनीय छ भने, के परिवर्तन हुन सक्छ?
-
अनिश्चितताको बारेमा इमानदारी - व्याख्याहरूले सीमाहरू प्रकट गर्नुपर्छ, तिनीहरूलाई रंगाउनु हुँदैन।
-
क्षेत्र स्पष्टता - के यो एउटा भविष्यवाणीको लागि स्थानीय मोडेल व्यवहारको विश्वव्यापी
यदि तपाईंले एउटा मात्र कुरा सम्झनुभयो भने: उपयोगी व्याख्याले कसैको निर्णय परिवर्तन गर्छ, केवल उनीहरूको मुड मात्र होइन।.
तपाईंले धेरै सुन्नुहुने मुख्य अवधारणाहरू 🧩
-
व्याख्यात्मकता बनाम व्याख्यात्मकता - व्याख्यात्मकता: मोडेल पढ्न पर्याप्त सरल छ (जस्तै, सानो रूख)। व्याख्यात्मकता: जटिल मोडेललाई पढ्न सकिने बनाउन माथि एउटा विधि थप्नुहोस्।
-
स्थानीय बनाम विश्वव्यापी - स्थानीयले एउटा निर्णयको व्याख्या गर्छ; विश्वव्यापीले समग्र व्यवहारको सारांश दिन्छ।
-
पोस्ट-हक बनाम इन्ट्रिन्सिक - पोस्ट-हकले प्रशिक्षित ब्ल्याक बक्सको व्याख्या गर्छ; इन्ट्रिन्सिकले स्वाभाविक रूपमा व्याख्यायोग्य मोडेलहरू प्रयोग गर्दछ।
हो, यी रेखाहरू धमिलो छन्। ठीक छ; भाषा विकसित हुन्छ; तपाईंको जोखिम दर्तामा त्यस्तो हुँदैन।.
लोकप्रिय व्याख्यायोग्य एआई विधिहरू - भ्रमण 🎡
यहाँ एउटा आँधीबेहरी भ्रमण छ, संग्रहालय अडियो गाइडको माहौल सहित तर छोटो।.
१) थप सुविधा विशेषताहरू
-
SHAP - खेल-सैद्धान्तिक विचारहरू मार्फत प्रत्येक सुविधालाई विशिष्ट भविष्यवाणीमा योगदान प्रदान गर्दछ। स्पष्ट additive व्याख्याहरू र मोडेलहरूमा एकताबद्ध दृष्टिकोणको लागि मन पर्यो [3]।
२) स्थानीय सरोगेट मोडेलहरू
-
LIME - उदाहरणको वरिपरि व्याख्या गर्नको लागि एक सरल, स्थानीय मोडेललाई तालिम दिन्छ। नजिकैका सुविधाहरूको महत्त्वको द्रुत, मानव-पठनीय सारांशहरू। डेमोहरूको लागि उत्कृष्ट, अभ्यास-वाच स्थिरतामा उपयोगी [4]।
३) गहिरो जालहरूको लागि ग्रेडियन्ट-आधारित विधिहरू
-
एकीकृत ग्रेडियन्टहरू - आधारभूतबाट इनपुटमा ग्रेडियन्टहरू एकीकृत गरेर महत्त्वको विशेषता दिन्छ; प्रायः दृष्टि र पाठको लागि प्रयोग गरिन्छ। समझदार स्वयंसिद्धहरू; आधारभूत र आवाजसँग आवश्यक हेरचाह [1]।
४) उदाहरणमा आधारित स्पष्टीकरणहरू
-
प्रतिवाद - "कुन न्यूनतम परिवर्तनले परिणामलाई उल्ट्याएको हुन्थ्यो?" निर्णय लिने कामको लागि उत्तम किनभने यो स्वाभाविक रूपमा कार्ययोग्य छ - Y प्राप्त गर्न X गर्नुहोस् [1]।
५) प्रोटोटाइप, नियम, र आंशिक निर्भरता
-
प्रोटोटाइपहरूले प्रतिनिधि उदाहरणहरू देखाउँछन्; नियमहरूले if income > X र history = clean then approve ; आंशिक निर्भरताले दायरामा सुविधाको औसत प्रभाव देखाउँछ। साधारण विचारहरू, प्रायः कम मूल्याङ्कन गरिन्छ।
६) भाषा मोडेलहरूको लागि
-
टोकन/स्प्यान्स विशेषताहरू, पुनःप्राप्त उदाहरणहरू, र संरचित तर्कहरू। उपयोगी, सामान्य चेतावनीको साथ: सफा हीटम्यापहरूले कारणात्मक तर्कको ग्यारेन्टी गर्दैनन् [5]।.
क्षेत्रबाट एउटा द्रुत (मिश्रित) केस 🧪
मध्यम आकारको ऋणदाताले क्रेडिट निर्णयहरूको लागि ग्रेडियन्ट-बढाइएको मोडेल पठाउँछ। स्थानीय SHAP ले एजेन्टहरूलाई प्रतिकूल परिणामको व्याख्या गर्न मद्दत गर्दछ ("ऋण-देखि-आय र हालसालैको क्रेडिट उपयोग प्रमुख चालकहरू थिए।") [3]। एक काउन्टरफ्याक्टुअल तहले सम्भाव्य उपायको सुझाव दिन्छ ("निर्णयलाई उल्टाउन ~१०% ले घुम्ने उपयोग घटाउनुहोस् वा प्रमाणित निक्षेपहरूमा £१,५०० थप्नुहोस्।") [1]। आन्तरिक रूपमा, टोलीले अनियमितता परीक्षणहरू ताकि हाइलाइटहरू केवल भेषमा किनारा डिटेक्टरहरू होइनन् [5]। एउटै मोडेल, फरक दर्शकहरू-ग्राहकहरू, अप्स, र लेखा परीक्षकहरूका लागि फरक व्याख्याहरू।
अचम्मको कुरा: स्पष्टीकरणहरूले भ्रामक बनाउन सक्छन् 🙃
केही सालियन्सी विधिहरू प्रशिक्षित मोडेल वा डेटासँग बाँधिएका नभए पनि विश्वस्त देखिन्छन्। सेनिटी जाँचहरूले देखाएको छ कि केही प्रविधिहरू आधारभूत परीक्षणहरू असफल हुन सक्छन्, जसले गर्दा गलत बुझाइ हुन्छ। अनुवाद: सुन्दर तस्बिरहरू शुद्ध थिएटर हुन सक्छन्। तपाईंको व्याख्या विधिहरूको लागि प्रमाणीकरण परीक्षणहरू निर्माण गर्नुहोस् [5]।.
साथै, विरल ≠ इमानदार। एक-वाक्य कारणले ठूला अन्तरक्रियाहरू लुकाउन सक्छ। व्याख्यामा थोरै विरोधाभासले वास्तविक मोडेल अनिश्चितता - वा केवल आवाजलाई संकेत गर्न सक्छ। तपाईंको काम भनेको कुन कुन हो भनेर बताउनु हो।.
शासन, नीति, र पारदर्शिताको लागि बढ्दो स्तम्भ 🏛️
नीति निर्माताहरूले सन्दर्भ-उपयुक्त पारदर्शिताको अपेक्षा गर्छन्। EU , AI ऐनले निर्दिष्ट केसहरूमा मानिसहरूलाई AI सँग अन्तरक्रिया गर्दा जानकारी दिने, र AI-उत्पन्न वा हेरफेर गरिएको सामग्रीलाई उपयुक्त सूचनाहरू र प्राविधिक माध्यमहरू सहित लेबल गर्ने जस्ता दायित्वहरू वर्णन गर्दछ, अपवादहरूको अधीनमा (जस्तै, कानुनी प्रयोगहरू वा संरक्षित अभिव्यक्ति) [2]। इन्जिनियरिङ पक्षमा, NIST ले टोलीहरूलाई मानिसहरूले वास्तवमा प्रयोग गर्न सक्ने स्पष्टीकरणहरू डिजाइन गर्न मद्दत गर्न सिद्धान्त-उन्मुख मार्गदर्शन प्रदान गर्दछ [1]।
व्याख्यायोग्य एआई दृष्टिकोण कसरी छनौट गर्ने - द्रुत नक्सा 🗺️
-
निर्णयबाट सुरु गर्नुहोस् - कसलाई स्पष्टीकरण चाहिन्छ, र के कार्यको लागि?
-
विधिलाई मोडेल र माध्यमसँग मिलाउनुहोस्
-
दृष्टिमा गहिरो जाल वा NLP को लागि ग्रेडियन्ट विधिहरू [1]।.
-
तपाईंलाई सुविधा विशेषताहरू आवश्यक पर्दा तालिका मोडेलहरूको लागि SHAP वा LIME [3][4]।.
-
ग्राहक-मुखी उपचार र अपीलहरूको लागि प्रति-तथ्याङ्कहरू [1]।.
-
-
सेट गुणस्तर गेटहरू - फिडेलिटी जाँचहरू, स्थिरता परीक्षणहरू, र मानव-इन-द-लूप समीक्षाहरू [5]।
-
स्केलको लागि योजना - व्याख्याहरू लगेबल, परीक्षणयोग्य र लेखा परीक्षणयोग्य हुनुपर्छ।
-
कागजात सीमाहरू - कुनै पनि विधि पूर्ण हुँदैन; ज्ञात असफलता मोडहरू लेख्नुहोस्।
सानो कुरा त के भने - यदि तपाईंले मोडेलहरू परीक्षण गरे जस्तै स्पष्टीकरणहरू परीक्षण गर्न सक्नुहुन्न भने, तपाईंसँग स्पष्टीकरणहरू नहुन सक्छन्, केवल भावनाहरू।.
तुलना तालिका - सामान्य व्याख्यायोग्य एआई विकल्पहरू 🧮
जानाजानी हल्का अनौठो; वास्तविक जीवन अव्यवस्थित छ।.
| उपकरण / विधि | उत्कृष्ट दर्शकहरू | मूल्य | यो उनीहरूको लागि किन काम गर्छ? |
|---|---|---|---|
| आकार | डेटा वैज्ञानिक, लेखा परीक्षकहरू | नि:शुल्क/खुला | थप विशेषताहरू - सुसंगत, तुलनात्मक [3]।. |
| लाइम | उत्पादन टोलीहरू, विश्लेषकहरू | नि:शुल्क/खुला | छिटो स्थानीय सरोगेटहरू; सजिलै हल्लाउन सक्ने; कहिलेकाहीं हल्ला गर्ने [4]।. |
| एकीकृत ग्रेडियन्टहरू | गहिरो जालोमा एमएल इन्जिनियरहरू | नि:शुल्क/खुला | समझदार स्वयंसिद्धहरू सहितको ग्रेडियन्ट-आधारित विशेषताहरू [1]।. |
| प्रतिवादीहरू | अन्तिम प्रयोगकर्ताहरू, अनुपालन, अप्स | मिश्रित | के परिवर्तन गर्ने भन्ने कुराको सिधै जवाफ दिन्छ; अति कार्ययोग्य [1]।. |
| नियम सूचीहरू / रूखहरू | जोखिम मालिकहरू, प्रबन्धकहरू | नि:शुल्क/खुला | आन्तरिक व्याख्यात्मकता; विश्वव्यापी सारांशहरू।. |
| आंशिक निर्भरता | मोडेल विकासकर्ता, QA | नि:शुल्क/खुला | दायराहरूमा औसत प्रभावहरूको कल्पना गर्दछ।. |
| प्रोटोटाइप र उदाहरणहरू | डिजाइनरहरू, समीक्षकहरू | नि:शुल्क/खुला | ठोस, मानव-मैत्री उदाहरणहरू; सम्बन्धित।. |
| टुलिङ प्लेटफर्महरू | प्लेटफर्म टोलीहरू, शासन | व्यावसायिक | एकै ठाउँमा अनुगमन + व्याख्या + लेखा परीक्षण।. |
हो, कोषहरू असमान छन्। त्यो जीवन हो।.
उत्पादनमा स्पष्ट पार्न सकिने एआईको लागि सरल कार्यप्रवाह 🛠️
चरण १ - प्रश्न परिभाषित गर्नुहोस्।
कसको आवश्यकता सबैभन्दा महत्त्वपूर्ण छ निर्णय गर्नुहोस्। डेटा वैज्ञानिकको लागि व्याख्यायोग्यता ग्राहकको लागि अपील पत्र जस्तै होइन।
चरण २ - सन्दर्भ अनुसार विधि छान्नुहोस्।.
-
ऋणको लागि तालिकाबद्ध जोखिम मोडेल - स्थानीय र विश्वव्यापीको लागि SHAP बाट सुरु गर्नुहोस्; सहाराको लागि प्रति-तथ्याङ्कहरू थप्नुहोस् [3][1]।.
-
दृष्टि वर्गीकरणकर्ता - एकीकृत ग्रेडियन्ट वा समान प्रयोग गर्नुहोस्; साइलेंसी पिटफलहरूबाट बच्नको लागि सेनिटी जाँचहरू थप्नुहोस् [1][5]।.
चरण ३ - स्पष्टीकरणहरू प्रमाणित गर्नुहोस्।
स्पष्टीकरण स्थिरता परीक्षणहरू गर्नुहोस्; गडबड इनपुटहरू; महत्त्वपूर्ण सुविधाहरू डोमेन ज्ञानसँग मेल खान्छ कि भनेर जाँच गर्नुहोस्। यदि तपाईंका शीर्ष सुविधाहरू प्रत्येक पुन: तालिममा अत्यधिक रूपमा बहन्छन् भने, पज गर्नुहोस्।
चरण ४ - स्पष्टीकरणहरू प्रयोगयोग्य बनाउनुहोस्।
चार्टहरूसँगै सरल भाषाका कारणहरू। अर्को-उत्तम कार्यहरू समावेश गर्नुहोस्। उपयुक्त भएमा चुनौती परिणामहरूको लिङ्कहरू प्रस्ताव गर्नुहोस् - पारदर्शिता नियमहरूले [2] लाई समर्थन गर्ने लक्ष्य राखेको कुरा यही हो।
चरण ५ - निगरानी र लग गर्नुहोस्।
समयसँगै व्याख्या स्थिरता ट्र्याक गर्नुहोस्। भ्रामक व्याख्याहरू जोखिम संकेत हुन्, कस्मेटिक बग होइन।
गहिरो अध्ययन १: व्यवहारमा स्थानीय बनाम विश्वव्यापी व्याख्या 🔍
-
संवेदनशील सन्दर्भमा आफ्नो मुद्दा यति स्थानीयले व्यक्तिलाई मद्दत गर्छ
-
ग्लोबलले तपाईंको टोलीलाई मोडेलको सिकेको व्यवहार नीति र डोमेन ज्ञानसँग मिल्दोजुल्दो छ भनी सुनिश्चित गर्न मद्दत गर्छ।
दुवै गर्नुहोस्। तपाईंले सेवा सञ्चालनको लागि स्थानीय रूपमा सुरु गर्न सक्नुहुन्छ, त्यसपछि बहाव र निष्पक्षता समीक्षाको लागि विश्वव्यापी अनुगमन थप्न सक्नुहुन्छ।.
गहिरो अध्ययन २: सहारा र अपीलका लागि प्रतिवाद 🔄
मानिसहरू राम्रो परिणाम प्राप्त गर्न न्यूनतम परिवर्तन जान्न चाहन्छन्। प्रति-तथ्याङ्कीय व्याख्याहरूले ठ्याक्कै त्यही गर्छन् - यी विशिष्ट कारकहरूलाई परिवर्तन गर्नुहोस् र परिणाम उल्टो हुन्छ सम्भाव्यता र निष्पक्षताको सम्मान गर्नुपर्छ । कसैलाई अपरिवर्तनीय विशेषता परिवर्तन गर्न भन्नु योजना होइन, यो रातो झण्डा हो।
गहिरो अध्ययन ३: स्वास्थ्यको जाँच गर्ने साइलेंसी 🧪
यदि तपाईंले सालियन्सी नक्सा वा ग्रेडियन्टहरू प्रयोग गर्नुहुन्छ भने, स्यानिटी जाँचहरू चलाउनुहोस्। केही प्रविधिहरूले मोडेल प्यारामिटरहरूलाई अनियमित गर्दा पनि लगभग समान नक्साहरू उत्पादन गर्छन् - जसको अर्थ तिनीहरूले किनाराहरू र बनावटहरू हाइलाइट गरिरहेका हुन सक्छन्, सिकेका प्रमाणहरू होइनन्। सुन्दर ताप नक्साहरू, भ्रामक कथा। CI/CD [5] मा स्वचालित जाँचहरू निर्माण गर्नुहोस्।.
हरेक बैठकमा सोधिने FAQ 🤓
प्रश्न: के व्याख्यायोग्य एआई निष्पक्षता जस्तै हो?
उत्तर: होइन। व्याख्याहरूले तपाईंलाई हेर्न ; निष्पक्षता एउटा गुण हो जुन तपाईंले परीक्षण र लागू । सम्बन्धित, समान होइन।
प्रश्न: के सरल मोडेलहरू सधैं राम्रो हुन्छन्?
उत्तर: कहिलेकाहीं। तर सरल र गलत अझै पनि गलत नै हुन्छ। प्रदर्शन र शासन आवश्यकताहरू पूरा गर्ने सबैभन्दा सरल मोडेल छनौट गर्नुहोस्।
प्रश्न: के स्पष्टीकरणहरूले IP चुहावट गर्नेछन्?
उत्तर: तिनीहरूले गर्न सक्छन्। दर्शक र जोखिम अनुसार विवरण क्यालिब्रेट गर्नुहोस्; तपाईंले के खुलासा गर्नुहुन्छ र किन गर्नुहुन्छ भन्ने कुरा दस्तावेज गर्नुहोस्।
प्रश्न: के हामी केवल विशेषताको महत्त्व देखाउन सक्छौं र यसलाई सम्पन्न भन्न सक्छौं?
उत्तर: वास्तवमा होइन। सन्दर्भ वा सहारा बिनाको महत्त्व पट्टीहरू सजावट हुन्।
धेरै लामो, संस्करण र अन्तिम टिप्पणी पढिएन 🌯
व्याख्यायोग्य एआई भनेको मोडेल व्यवहारलाई बुझ्न सकिने र यसमा भर पर्ने मानिसहरूका लागि उपयोगी बनाउने अनुशासन हो। उत्तम व्याख्याहरूमा निष्ठा, स्थिरता र स्पष्ट दर्शकहरू हुन्छन्। SHAP, LIME, Integrated Gradients, र counterfactuals जस्ता विधिहरू प्रत्येकमा शक्तिहरू हुन्छन् - तिनीहरूलाई जानाजानी प्रयोग गर्नुहोस्, तिनीहरूलाई कडाईका साथ परीक्षण गर्नुहोस्, र मानिसहरूले कार्य गर्न सक्ने भाषामा प्रस्तुत गर्नुहोस्। र सम्झनुहोस्, स्लिक भिजुअलहरू थिएटर हुन सक्छन्; तपाईंको व्याख्याहरूले मोडेलको वास्तविक व्यवहारलाई प्रतिबिम्बित गर्ने प्रमाण माग गर्नुहोस्। तपाईंको मोडेल जीवनचक्रमा व्याख्यायोग्यता निर्माण गर्नुहोस् - यो एक चमकदार एड-अन होइन, यो तपाईं जिम्मेवारीपूर्वक कसरी पठाउनुहुन्छ भन्ने अंश हो।.
इमानदारीपूर्वक भन्नुपर्दा, यो तपाईंको मोडेललाई आवाज दिनु जस्तै हो। कहिलेकाहीं यो गुनगुनाउँछ; कहिलेकाहीं यो अत्यधिक व्याख्या गर्छ; कहिलेकाहीं यसले तपाईंलाई सुन्न आवश्यक पर्ने कुरा ठ्याक्कै भन्छ। तपाईंको काम भनेको यसलाई सही कुरा भन्न मद्दत गर्नु हो, सही व्यक्तिलाई, सही समयमा। र एक वा दुई राम्रो लेबल दिनुहोस्। 🎯
सन्दर्भ सामग्रीहरू
[1] NIST IR 8312 - व्याख्यायोग्य कृत्रिम बुद्धिमत्ताका चार सिद्धान्तहरू । राष्ट्रिय मानक र प्रविधि संस्थान। थप पढ्नुहोस्
[2] नियमन (EU) २०२४/१६८९ - कृत्रिम बुद्धिमत्ता ऐन (आधिकारिक जर्नल/EUR-Lex) । थप पढ्नुहोस्
[3] लुन्डबर्ग र ली (२०१७) - "मोडेल भविष्यवाणीहरूको व्याख्या गर्न एकीकृत दृष्टिकोण।" arXiv. थप पढ्नुहोस्
[4] रिबेरो, सिंह र गेस्ट्रिन (२०१६) - "म तिमीलाई किन विश्वास गर्नुपर्छ?" कुनै पनि वर्गीकरणकर्ताको भविष्यवाणीको व्याख्या गर्दै। arXiv. थप पढ्नुहोस्
[5] Adebayo et al. (२०१८) - “Salency Maps को लागि Sanity Checks।” NeurIPS (कागज PDF)। थप पढ्नुहोस्