एआई नैतिकता भनेको के हो?

एआई नैतिकता भनेको के हो?

यो शब्द सुन्दा उच्च लाग्छ, तर लक्ष्य अत्यन्तै व्यावहारिक छ: एआई प्रणालीहरूलाई मानिसहरूले विश्वास गर्न सक्ने बनाउने - किनकि तिनीहरू मानव अधिकारको सम्मान गर्ने, हानि कम गर्ने र वास्तविक लाभ प्रदान गर्ने तरिकाले डिजाइन, निर्माण र प्रयोग गरिएका छन्। त्यति नै हो - धेरैजसो। 

यसपछि पढ्न मन लाग्ने लेखहरू:

🔗 AI मा MCP भनेको के हो?
मोड्युलर कम्प्युट प्रोटोकल र एआईमा यसको भूमिका व्याख्या गर्दछ।

🔗 एज एआई भनेको के हो?
किनारा-आधारित प्रशोधनले कसरी छिटो, स्थानीय एआई निर्णयहरूलाई सक्षम बनाउँछ भन्ने कुरा समेट्छ।

🔗 जेनेरेटिभ एआई भनेको के हो?
पाठ, छविहरू, र अन्य मौलिक सामग्री सिर्जना गर्ने मोडेलहरू प्रस्तुत गर्दछ।

🔗 एजेन्टिक एआई भनेको के हो?
लक्ष्य-संचालित निर्णय लिन सक्षम स्वायत्त एआई एजेन्टहरूको वर्णन गर्दछ।


एआई नैतिकता भनेको के हो? सरल परिभाषा 🧭

एआई नैतिकता भनेको सिद्धान्तहरू, प्रक्रियाहरू र रेलिंगहरूको सेट हो जसले हामी कसरी एआई डिजाइन, विकास, तैनाथ र शासन गर्छौं भनेर मार्गदर्शन गर्दछ ताकि यसले मानव अधिकार, निष्पक्षता, जवाफदेहिता, पारदर्शिता र सामाजिक भलाइलाई कायम राखोस्। यसलाई एल्गोरिदमको लागि सडकको दैनिक नियमको रूपमा सोच्नुहोस् - चीजहरू गलत हुन सक्ने अनौठा कुनाहरूको लागि अतिरिक्त जाँचहरू सहित।

विश्वव्यापी आधारभूत कुराहरूले यसलाई समर्थन गर्दछ: युनेस्कोको सिफारिसले मानव अधिकार, मानव निरीक्षण र न्यायलाई केन्द्रित गर्दछ, पारदर्शिता र निष्पक्षतालाई गैर-वार्तायोग्य रूपमा राख्छ [1]। OECD का AI सिद्धान्तहरूले विश्वसनीय AI को लागि लक्ष्य राख्छन् [2]।

छोटकरीमा भन्नुपर्दा, एआई नैतिकता भित्तामा टाँसिएको पोस्टर होइन। यो टोलीहरूले जोखिमहरूको अनुमान गर्न, विश्वसनीयता प्रमाणित गर्न र मानिसहरूलाई सुरक्षित राख्न प्रयोग गर्ने प्लेबुक हो। एनआईएसटीको एआई जोखिम व्यवस्थापन फ्रेमवर्कले एआई जीवनचक्र [3] भरि सक्रिय जोखिम व्यवस्थापन जस्तै नैतिकतालाई व्यवहार गर्दछ।

 

एआई नैतिकता

राम्रो एआई नैतिकता के ले बनाउँछ ✅

यहाँ स्पष्ट संस्करण छ। एउटा राम्रो एआई नैतिकता कार्यक्रम:

  • लाइभ गरिएको छ, ल्यामिनेट गरिएको छैन - नीतिहरू जसले वास्तविक इन्जिनियरिङ अभ्यासहरू र समीक्षाहरूलाई चलाउँछ।

  • समस्याको फ्रेमिङबाट सुरु हुन्छ - यदि उद्देश्य गलत छ भने, कुनै पनि निष्पक्षता समाधानले यसलाई बचाउन सक्दैन।

  • कागजात निर्णयहरू - किन यो डेटा, किन यो मोडेल, किन यो थ्रेसहोल्ड।

  • सन्दर्भ सहितको परीक्षण - समग्र शुद्धता मात्र नभई उपसमूहद्वारा मूल्याङ्कन गर्नुहोस् (NIST को मुख्य विषयवस्तु) [3]।

  • यसको काम देखाउँछ - मोडेल कार्डहरू, डेटासेट कागजातहरू, र स्पष्ट प्रयोगकर्ता कम्युनिकेसनहरू [5]।

  • जवाफदेहिता निर्माण गर्दछ - नामित मालिकहरू, वृद्धि मार्गहरू, लेखा परीक्षण योग्यता।

  • सुरक्षा बनाम उपयोगिता बनाम गोपनीयता, लेखिएकोमा सन्तुलन मिलाउँछ

  • कानूनसँग जोडिएको छ - जोखिम-आधारित आवश्यकताहरू जसले प्रभावको साथ नियन्त्रणहरू मापन गर्दछ (EU AI ऐन हेर्नुहोस्) [4]।

यदि यसले एउटा उत्पादनको निर्णय परिवर्तन गर्दैन भने, यो नैतिकता होइन - यो सजावट हो।


ठूलो प्रश्नको द्रुत उत्तर: एआई नैतिकता भनेको के हो? 🥤

यसरी टोलीहरूले बारम्बार तीनवटा दोहोरिने प्रश्नहरूको जवाफ दिन्छन्:

  1. के हामीले यो निर्माण गर्नुपर्छ?

  2. यदि हो भने, हामी कसरी हानि कम गर्ने र प्रमाणित गर्ने?

  3. जब कुरा उल्टो हुन्छ, को जवाफदेही हुन्छ र अब के हुन्छ?

बोरिंग व्यावहारिक। अचम्मको कुरा, गाह्रो। यसको लायक।


६० सेकेन्डको मिनी-केस (व्यावहारिक अनुभव) 📎

एउटा फिनटेक टोलीले समग्रमा उत्कृष्ट शुद्धताका साथ ठगी मोडेल पठाउँछ। दुई हप्ता पछि, एक विशिष्ट क्षेत्रबाट समर्थन टिकट स्पाइक-वैध भुक्तानीहरू अवरुद्ध हुन्छन्। एउटा उपसमूह समीक्षाले त्यो लोकेलको लागि फिर्ता औसत भन्दा १२ अंक कम देखाउँछ। टोलीले डेटा कभरेज पुन: अवलोकन गर्दछ, राम्रो प्रतिनिधित्वको साथ पुन: तालिम दिन्छ, र परिवर्तन, ज्ञात चेतावनीहरू, र प्रयोगकर्ता अपील मार्ग दस्तावेज गर्ने अद्यावधिक मोडेल कार्ड । शुद्धता एक अंक घट्छ; ग्राहक विश्वास उफ्रन्छ। यो जोखिम व्यवस्थापनप्रयोगकर्ता सम्मानको , पोस्टर होइन [3][5]।


तपाईंले वास्तवमा प्रयोग गर्न सक्ने उपकरणहरू र फ्रेमवर्कहरू 📋

(साना-साना कुराहरू जानाजानी समावेश गरिएको हो - त्यो वास्तविक जीवन हो।)

उपकरण वा फ्रेमवर्क दर्शक मूल्य यो किन काम गर्छ? नोटहरू
NIST AI जोखिम व्यवस्थापन फ्रेमवर्क उत्पादन, जोखिम, नीति नि:शुल्क कार्यहरू स्पष्ट गर्नुहोस् - शासन, नक्सा, मापन, व्यवस्थापन - टोलीहरू मिलाउनुहोस् स्वैच्छिक, व्यापक रूपमा सन्दर्भित [3]
OECD AI सिद्धान्तहरू कार्यकारीहरू, नीति निर्माताहरू नि:शुल्क विश्वसनीय AI को लागि मानहरू + व्यावहारिक सिफारिसहरू एक ठोस शासन उत्तर-तारा [2]
EU AI ऐन (जोखिममा आधारित) कानुनी, अनुपालन, CTO हरू नि:शुल्क* जोखिम तहहरूले उच्च-प्रभाव प्रयोगहरूको लागि समानुपातिक नियन्त्रणहरू सेट गर्दछ अनुपालन लागत फरक हुन्छ [4]
मोडेल कार्डहरू एमएल इन्जिनियरहरू, पीएमहरू नि:शुल्क मोडेल के हो, गर्छ, र कहाँ असफल हुन्छ भनेर मानकीकरण गर्छ कागज + उदाहरणहरू अवस्थित छन् [5]
डेटासेट कागजात ("डेटासिट") डेटा वैज्ञानिकहरू नि:शुल्क डेटाको उत्पत्ति, कभरेज, सहमति, र जोखिमहरू व्याख्या गर्दछ यसलाई पोषण लेबल जस्तै व्यवहार गर्नुहोस्

गहिरो डुबकी १ - सिद्धान्तमा होइन, गतिमा सिद्धान्तहरू 🏃

  • निष्पक्षता - जनसांख्यिकी र सन्दर्भहरूमा कार्यसम्पादनको मूल्याङ्कन गर्नुहोस्; समग्र मेट्रिक्सले हानि लुकाउँछ [3]।

  • जवाफदेहिता - डेटा, मोडेल, र तैनाती निर्णयहरूको लागि मालिकहरूलाई तोक्नुहोस्। निर्णय लगहरू राख्नुहोस्।

  • पारदर्शिता - मोडेल कार्डहरू प्रयोग गर्नुहोस्; प्रयोगकर्ताहरूलाई निर्णय कति स्वचालित छ र के उपायहरू अवस्थित छन् भनी बताउनुहोस् [5]।

  • मानव निरीक्षण - वास्तविक रोक्ने/ओभरराइड शक्ति (युनेस्को द्वारा स्पष्ट रूपमा अग्रगामी) [1] को साथ, उच्च-जोखिम निर्णयहरूको लागि मानिसहरूलाई लूपमा/मा राख्नुहोस्।

  • गोपनीयता र सुरक्षा - डेटालाई न्यूनतम र सुरक्षित गर्नुहोस्; अनुमान-समय चुहावट र डाउनस्ट्रीम दुरुपयोगलाई विचार गर्नुहोस्।

  • परोपकार - केवल सफा KPIs मात्र नभई सामाजिक लाभ प्रदर्शन गर्नुहोस् (OECD ले यो सन्तुलनलाई फ्रेम गर्दछ) [2]।

सानो विषयान्तर: टोलीहरूले कहिलेकाहीं वास्तविक हानि प्रश्नलाई बेवास्ता गर्दै मेट्रिक नामहरूको बारेमा घण्टौंसम्म बहस गर्छन्। त्यो कसरी हुन्छ भन्ने कुरा रमाइलो छ।


गहिरो डुबुल्की २ - जोखिमहरू र तिनीहरूलाई कसरी मापन गर्ने 📏

जब तपाईं हानिलाई मापनयोग्य जोखिमको रूपमा व्यवहार गर्नुहुन्छ तब नैतिक एआई ठोस बन्छ:

  • सन्दर्भ नक्साङ्कन - प्रत्यक्ष वा अप्रत्यक्ष रूपमा को प्रभावित हुन्छ? प्रणालीमा कस्तो निर्णय शक्ति हुन्छ?

  • डेटा फिटनेस - प्रतिनिधित्व, बहाव, लेबलिङ गुणस्तर, सहमति मार्गहरू।

  • मोडेल व्यवहार - वितरण शिफ्ट, प्रतिकूल प्रम्प्टहरू, वा दुर्भावनापूर्ण इनपुटहरू अन्तर्गत विफलता मोडहरू।

  • प्रभाव मूल्याङ्कन - गम्भीरता × सम्भावना, न्यूनीकरण, र अवशिष्ट जोखिम।

  • जीवनचक्र नियन्त्रणहरू - समस्या फ्रेमिङदेखि तैनाती पछिको अनुगमनसम्म।

NIST ले यसलाई चार प्रकार्यहरूमा विभाजन गर्दछ जुन टोलीहरूले पाङ्ग्रालाई पुन: आविष्कार नगरी अपनाउन सक्छन्: शासन, नक्सा, मापन, व्यवस्थापन [3]।


गहिरो डुबकी ३ - पछि तपाईंलाई बचाउने कागजात 🗂️

दुई विनम्र कलाकृतिहरूले कुनै पनि नाराले भन्दा बढी काम गर्छन्:

  • मोडेल कार्डहरू - मोडेल केका लागि हो, यसको मूल्याङ्कन कसरी गरियो, यो कहाँ असफल भयो, नैतिक विचारहरू, र चेतावनीहरू - छोटो, संरचित, पठनीय [5]।

  • डेटासेट कागजात ("डेटासिटहरू") - यो डेटा किन अवस्थित छ, यो कसरी सङ्कलन गरियो, कसलाई प्रतिनिधित्व गरिएको छ, ज्ञात अन्तरहरू, र सिफारिस गरिएका प्रयोगहरू।

यदि तपाईंले कहिल्यै नियामकहरू वा पत्रकारहरूलाई कुनै मोडेलले किन दुर्व्यवहार गरिन् भनेर व्याख्या गर्नुपरेको छ भने, यी लेखेकोमा तपाईंले आफ्नो विगतलाई धन्यवाद दिनुहुनेछ। भविष्यमा - तपाईंले आफ्नो विगतको कफी किन्नु हुनेछ।


गहिरो डुबकी ४ - वास्तवमा टोक्ने शासन 🧩

  • जोखिम तहहरू परिभाषित गर्नुहोस् - उच्च-प्रभाव प्रयोगका केसहरूलाई गहिरो छानबिन गर्न [4] जोखिम-आधारित विचार उधारो लिनुहोस्।

  • स्टेज गेट्स - इन्टेक, प्रक्षेपण अघि र प्रक्षेपण पछि नैतिक समीक्षा। पन्ध्र गेट्स होइन। तीन वटा प्रशस्त छन्।

  • कर्तव्यहरूको पृथकीकरण - विकासकर्ताहरूले प्रस्ताव गर्छन्, जोखिम साझेदारहरूले समीक्षा गर्छन्, नेताहरूले हस्ताक्षर गर्छन्। स्पष्ट रेखाहरू।

  • घटना प्रतिक्रिया - मोडेललाई कसले रोक्छ, प्रयोगकर्ताहरूलाई कसरी सूचित गरिन्छ, उपचार कस्तो देखिन्छ।

  • स्वतन्त्र लेखापरीक्षण - पहिले आन्तरिक; जहाँ दांवको माग हुन्छ त्यहाँ बाह्य।

  • तालिम र प्रोत्साहन - मुद्दाहरूलाई लुकाउने होइन, प्रारम्भिक रूपमा बाहिर आउने पुरस्कार।

इमानदार बनौं: यदि शासनले कहिल्यै पनि होइन , त्यो शासन होइन।


गहिरो डुबुल्की ५ - लुपमा रहेका मानिसहरू, प्रोप्सको रूपमा होइन 👩⚖️

मानव निरीक्षण कुनै जाँच बाकस होइन - यो डिजाइनको छनोट हो:

  • जब मानिसहरूले निर्णय गर्छन् - व्यक्तिले समीक्षा गर्नुपर्ने स्पष्ट सीमाहरू, विशेष गरी उच्च-जोखिम परिणामहरूको लागि।

  • निर्णयकर्ताहरूको लागि व्याख्यात्मकता - मानिसलाई किनअनिश्चितता

  • प्रयोगकर्ता प्रतिक्रिया लूपहरू - प्रयोगकर्ताहरूलाई स्वचालित निर्णयहरूमा प्रतिस्पर्धा गर्न वा सच्याउन दिनुहोस्।

  • पहुँचयोग्यता - विभिन्न प्रयोगकर्ताहरूले बुझ्न र वास्तवमा प्रयोग गर्न सक्ने इन्टरफेसहरू।

युनेस्कोको निर्देशन यहाँ सरल छ: मानव मर्यादा र निरीक्षण मुख्य कुरा हो, ऐच्छिक होइन। उत्पादन यस्तो बनाउनुहोस् कि मानिसहरूले भूमिलाई हानि पुर्‍याउनु अघि हस्तक्षेप गर्न सकून् [1]।


साइड नोट - अर्को सीमा: न्यूरोटेक 🧠

एआईले स्नायु प्रविधिसँग अन्तर्क्रिया गर्दा, मानसिक गोपनीयताविचारको स्वतन्त्रता वास्तविक डिजाइन विचारहरू बन्छ। उही प्लेबुक लागू हुन्छ: अधिकार-केन्द्रित सिद्धान्तहरू [1], विश्वसनीय-द्वारा-डिजाइन शासन [2], र उच्च-जोखिम प्रयोगहरूको लागि समानुपातिक सुरक्षाहरू [4]। पछि बोल्ट गर्नुको सट्टा प्रारम्भिक रेलिङहरू निर्माण गर्नुहोस्।


टोलीहरूले कसरी जवाफ दिन्छन् AI नैतिकता भनेको के हो? व्यवहारमा - कार्यप्रवाह 🧪

यो साधारण लूप प्रयास गर्नुहोस्। यो उत्तम छैन, तर यो जिद्दी रूपमा प्रभावकारी छ:

  1. उद्देश्य जाँच - हामी कुन मानवीय समस्या समाधान गर्दैछौं, र कसलाई फाइदा हुन्छ वा जोखिम हुन्छ?

  2. सन्दर्भ नक्सा - सरोकारवालाहरू, वातावरण, अवरोधहरू, ज्ञात खतराहरू।

  3. डेटा योजना - स्रोतहरू, सहमति, प्रतिनिधित्व, अवधारण, कागजात।

  4. सुरक्षाको लागि डिजाइन - विरोधी परीक्षण, रेड-टिमिङ, डिजाइन अनुसार गोपनीयता।

  5. निष्पक्षता परिभाषित गर्नुहोस् - डोमेन-उपयुक्त मेट्रिक्स छनौट गर्नुहोस्; कागजात ट्रेड-अफहरू।

  6. व्याख्यायोग्यता योजना - के व्याख्या गरिनेछ, कसलाई, र तपाईंले उपयोगिता कसरी प्रमाणित गर्नुहुनेछ।

  7. मोडेल कार्ड - चाँडै ड्राफ्ट गर्नुहोस्, जाँदा अद्यावधिक गर्नुहोस्, सुरुवातमा प्रकाशित गर्नुहोस् [5]।

  8. शासन द्वारहरू - जवाफदेही मालिकहरूसँग जोखिम समीक्षा; NIST को कार्यहरू प्रयोग गरेर संरचना [3]।

  9. सुरुवात पछिको अनुगमन - मेट्रिक्स, बहाव अलर्ट, घटना प्लेबुक, प्रयोगकर्ता अपील।

यदि कुनै पाइला भारी लाग्छ भने, त्यसलाई जोखिममा पार्नुहोस्। त्यो नै चाल हो। हिज्जे-सुधार बोटलाई अति-इन्जिनियरिङ गर्नाले कसैलाई पनि फाइदा हुँदैन।


नैतिकता बनाम अनुपालन - मसालेदार तर आवश्यक भिन्नता 🌶️

  • नैतिकताले सोध्छ: के यो मानिसहरूको लागि सही कुरा हो?

  • अनुपालनले सोध्छ: के यो नियम पुस्तिका पूरा गर्छ?

तपाईंलाई दुवै चाहिन्छ। EU को जोखिम-आधारित मोडेल तपाईंको अनुपालन मेरुदण्ड हुन सक्छ, तर तपाईंको नैतिकता कार्यक्रमले न्यूनतम सीमाभन्दा बाहिर धकेल्नु पर्छ - विशेष गरी अस्पष्ट वा नयाँ प्रयोगका केसहरूमा [4]।

एउटा द्रुत (त्रुटिपूर्ण) रूपक: अनुपालन बार हो; नैतिकता गोठालो हो। बारले तपाईंलाई सीमामा राख्छ; गोठालोले तपाईंलाई सही बाटोमा अघि बढाउँछ।


सामान्य समस्याहरू - र यसको सट्टा के गर्ने 🚧

  • पिटफल: नैतिकता रंगमञ्च - कुनै स्रोत बिनाका काल्पनिक सिद्धान्तहरू।
    समाधान: समय, मालिकहरू, र समीक्षा चेकपोइन्टहरू समर्पित गर्नुहोस्।

  • जोखिम: हानिको औसत - उत्कृष्ट समग्र मेट्रिक्सले उपसमूहको असफलता लुकाउँछ।
    समाधान: सधैं सान्दर्भिक उप-जनसंख्या [3] द्वारा मूल्याङ्कन गर्नुहोस्।

  • खतरा: सुरक्षाको रूपमा गोपनीयता लुकाउने - प्रयोगकर्ताहरूबाट विवरणहरू लुकाउने।
    समाधान: क्षमताहरू, सीमाहरू, र सहारालाई सरल भाषामा खुलासा गर्नुहोस् [5]।

  • समस्या: अन्त्यमा अडिट - सुरुवात हुनुभन्दा ठीक अगाडि समस्याहरू फेला पार्ने।
    समाधान: बायाँ सर्नुहोस् - नैतिकतालाई डिजाइन र डेटा सङ्कलनको हिस्सा बनाउनुहोस्।

  • पिटफल: निर्णय बिना चेकलिस्टहरू - अर्थ होइन, फारमहरू पछ्याउने।
    समाधान: विशेषज्ञ समीक्षा र प्रयोगकर्ता अनुसन्धानसँग टेम्प्लेटहरू संयोजन गर्नुहोस्।


प्रायः सोधिने प्रश्नहरू - तपाईंलाई जे भए पनि सोधिने कुराहरू ❓

के एआई नैतिकता नवप्रवर्तन विरोधी हो?
होइन। यो उपयोगी नवप्रवर्तनको पक्षमा छ। नैतिकताले पक्षपाती प्रणालीहरू जस्ता मृत लक्ष्यहरूलाई बेवास्ता गर्छ जसले प्रतिक्रिया वा कानुनी समस्या निम्त्याउँछ। OECD फ्रेमवर्कले स्पष्ट रूपमा सुरक्षाको साथ नवप्रवर्तनलाई बढावा दिन्छ [2]।

यदि हाम्रो उत्पादन कम जोखिमपूर्ण छ भने के हामीलाई यो चाहिन्छ?
हो, तर हल्का। समानुपातिक नियन्त्रणहरू प्रयोग गर्नुहोस्। त्यो जोखिम-आधारित विचार EU दृष्टिकोणमा मानक हो [4]।

कस्ता कागजातहरू अनिवार्य छन्?
कम्तिमा: तपाईंको मुख्य डेटासेटहरूको लागि डेटासेट कागजात, प्रत्येक मोडेलको लागि एक मोडेल कार्ड, र रिलीज निर्णय लग [5]।

एआई नैतिकताको स्वामित्व कसको हो?
सबैको व्यवहारको स्वामित्व हुन्छ, तर उत्पादन, डेटा विज्ञान, र जोखिम टोलीहरूलाई नाम दिइएको जिम्मेवारी चाहिन्छ। NIST का कार्यहरू राम्रो स्क्याफोल्ड हुन् [3]।


धेरै समय भयो पढेको छैन - अन्तिम टिप्पणी 💡

यदि तपाईंले यी सबै कुराहरू स्किम गर्नुभयो भने, यहाँ मुटु छ: एआई नैतिकता भनेको के हो? यो एआई निर्माण गर्ने एक व्यावहारिक अनुशासन हो जुन मानिसहरूले विश्वास गर्न सक्छन्। व्यापक रूपमा स्वीकृत मार्गदर्शन - युनेस्कोको अधिकार-केन्द्रित दृष्टिकोण र OECD को विश्वसनीय एआई सिद्धान्तहरूमा एङ्कर गर्नुहोस्। यसलाई सञ्चालन गर्न NIST को जोखिम ढाँचा प्रयोग गर्नुहोस्, र मोडेल कार्डहरू र डेटासेट कागजातहरू सहित पठाउनुहोस् ताकि तपाईंका छनौटहरू पढ्न सकियोस्। त्यसपछि प्रयोगकर्ताहरूलाई, सरोकारवालाहरूलाई, आफ्नै अनुगमनलाई सुनिरहनुहोस् - र समायोजन गर्नुहोस्। नैतिकता एक पटक मात्र गर्ने होइन; यो बानी हो।

अनि हो, कहिलेकाहीँ तपाईंले अवश्य पनि सच्याउनुहुनेछ। त्यो असफलता होइन। त्यो काम हो। 🌱


सन्दर्भ सामग्रीहरू

  1. युनेस्को - कृत्रिम बुद्धिमत्ताको नैतिकतामा सिफारिस (२०२१)। लिङ्क

  2. OECD - एआई सिद्धान्तहरू (२०१९)। लिङ्क

  3. NIST - कृत्रिम बुद्धिमत्ता जोखिम व्यवस्थापन फ्रेमवर्क (AI RMF १.०) (२०२३) (PDF)। लिङ्क

  4. EUR-Lex - नियमन (EU) २०२४/१६८९ (AI ऐन) । लिङ्क

  5. मिचेल एट अल - "मोडेल रिपोर्टिङका ​​लागि मोडेल कार्डहरू" (ACM, २०१९)। लिङ्क


आधिकारिक एआई सहायक स्टोरमा नवीनतम एआई खोज्नुहोस्

हाम्रो बारेमा

ब्लगमा फर्कनुहोस्