<font id="jpbfj"><ruby id="jpbfj"><form id="jpbfj"></form></ruby></font>

        <dfn id="jpbfj"><ruby id="jpbfj"></ruby></dfn>

        <mark id="jpbfj"><strike id="jpbfj"></strike></mark>

        <dfn id="jpbfj"><ruby id="jpbfj"></ruby></dfn>

                      <dfn id="jpbfj"></dfn>
                    <dfn id="jpbfj"><i id="jpbfj"><video id="jpbfj"></video></i></dfn>

                    <dfn id="jpbfj"><i id="jpbfj"><p id="jpbfj"></p></i></dfn>

                            Trust AI @ TüV SüD 專欄第十期:NIST風險管理框架

                            中國/廣州  歐盟人工智能法案將于2024年強制執行, 為協助中國人工智能相關企業提前應對即將到來的國際監管,TÜV南德意志集團(以下簡稱“TÜV南德”)已推出人工智能評估服務:AI 質量架構評估方案。

                            本文為Trust AI@TÜV SÜD的系列專欄的第十篇:NIST 人工智能風險管理框架

                            Trust AI@TüV SüD的系列專欄的第十篇:NIST 人工智能風險管理框架
                            (AI 質量架構評估方案)

                            本期我們來關注北美的人工智能監管活動,討論NIST發布的人工智能風險管理框架(Artificial Intelligence Risk Management Framework,簡稱AI RMF)。

                             

                            概述

                            美國國家標準技術研究所(NIST,National Institute of Standards and Technology)成立于1901年,隸屬于美國商務部,是全球頂級的物理科學,測量學研究機構和標準化組織,致力于促進創新和產業競爭力,增強經濟安全和改善人類生活質量。

                            2023年1月,NIST發布了第一版人工智能風險管理框架AI RMF,其目標是幫助設計、開發、部署或使用人工智能系統的組織提高人工智能風險管理的能力,并促進人工智能系統的可信度和負責任的開發和使用。雖然AI RMF只是一個自愿性的技術框架,但這一框架在正式發布前NIST已經通過幾版公開的草稿版本,與人工智能學界和產業界進行了廣泛的信息收集和討論,并受到廣泛關注,因此,此次AI RMF一經發布即成為業界公認的人工智能風險管理指導體系。

                             

                            基礎信息

                            AI RMF將與人工智能系統相關的潛在危害大致分為三類,即對人類的危害、對組織的危害和對生態系統的危害。

                            AI RMF將與人工智能系統相關的潛在危害

                            當前對這些危害的有效測量與管理還存在著很多挑戰。譬如,在AI系統中使用第三方軟硬件和數據難以管理;目前缺乏對風險和可信度的穩定且可驗證的度量方法的共識;對不同人工智能用例的適用性;在人工智能生命周期的不同階段測量風險可能會產生與不同的結果;在實驗室或受控環境中測量的人工智能的風險,可能會不同于在真實操作環境中出現的風險;不確定性的/有限解釋性的人工智能系統會使風險測量復雜化;用于增強或代替人類決策的AI,很難以人類的行為作為基準進行比較和評估等等。

                            AI RMF框架并不是一種萬能的解決方案,它需要根據組織的特定需求進行定制和實施。此外,該框架只是一個指導性工具,組織需要根據其實際情況進行判斷和決策,制定相應的措施,在實踐中建立組織的人工智能管理體系,并動態的持續改進。

                            AI RMF提出了7個可信賴AI的特征

                            增強AI的可信度可以在一定程度上降低AI的負面風險,AI RMF提出了7個可信賴AI的特征,分別是:有效&可靠,安全,彈性,可解釋,隱私保護,公平,可問責&透明。NIST希望可以通過AI RMF帶來如下改善:

                            • 加強人工智能風險的治理、映射、測量和管理流程,并清晰地記錄結果;
                            • 提高了對可信度特征、社會技術方法和人工智能風險之間關系和權衡的認識;
                            • 明確的系統調試和部署決策流程;
                            • 建立政策、流程和實踐,以改善與人工智能系統風險相關的組織問責機制; 
                            • 加強組織文化:優先人工智能系統風險的識別和管理,以及對個人、社區、組織和社會的潛在影響;
                            • 在組織內部和組織之間更好地共享有關風險、決策過程、責任、常見缺陷、TEVV實踐和持續改進方法的信息; 
                            • 提供更多的背景知識以提高下游風險意識; 
                            • 加強與有關各方和相關人工智能行為者的接觸;
                            • 增強人工智能系統TEVV(Test, Evaluation, Verification, and Validation)和相關風險的能力。

                             

                            核心框架

                            AI RMF的核心工作是將AI風險管理分為了四大板塊:治理,映射,測量,管理。每一個模塊都再細分為更小的子分類,并且包括了具體的行動和結果。

                            AI風險管理四大板塊

                            • 治理模塊主要涉及組織的領導層,批準政策和程序,為確保組織能夠根據其策略、目標和法律法規,確保AI系統的管理和控制要求得到滿足。讓組織能夠管理AI系統的生命周期,包括識別、開發、運行和退役等環節。
                            • 映射功能主要將組織的政策、目標和法律法規與AI系統的功能和風險聯系起來。組織可以開展需求分析,包括確定AI系統的功能、安全要求、控制措施和操作和維護要求。
                            • 測量模塊主要為組織需要評估AI系統的風險,并確定所需技術措施、操作和管理措施以及人員安全措施。
                            • 管理模塊主要涉及組織對AI系統的管理和控制。包括實施控制措施、監測和評估系統、處理安全事件和故障、維護和更新系統以及管理風險。

                            為了方便人工智能相關組織和個人參考,NIST為AI RMF編制了簡明的指導書,將各模塊的具體信息以表格的型式陳列。AI RMF框架和指導書都已免費公開,有興趣的相關人員可以直接下載參考。本文就不再贅述。

                             

                            人工智能與傳統軟件的風險差異

                            以下為AI RMF中總結的人工智能相較于傳統軟件所增加的風險:

                            • 用于構建人工智能系統的數據可能無法真實或適當地代表人工智能系統的使用情景或預期用途。此外,有害的偏見和其他數據質量問題可能會影響人工智能系統的可信度,從而導致負面影響。
                            • 人工智能系統相當依賴于訓練過程中使用的數據,并通常因此類數據而增大整個系統的體量和復雜性。
                            • 訓練期間有意或無意的改變有可能從根本上改變人工智能系統的性能。
                            • 用于訓練人工智能系統的數據集可能會脫離其原始和預期的使用情景,也可能在應用時已變得陳舊過時。
                            • 人工智能系統的規模和復雜性(許多系統包含數十億甚至數萬億的決策點)被安置在更加傳統的軟件應用程序中。
                            • 使用預先訓練好的模型可以推進研究和提高性能,但也會增加統計學的不確定性,并導致統計偏差、科學的有效性和可重復性等問題。
                            • 預測大規模預訓練模型的突發故障模式方面有較大的難度。
                            • 由于人工智能系統的強大的數據聚合能力而產生的隱私風險。
                            • 人工智能系統可能需要更頻繁的維護,和由于數據、模型或概念漂移而觸發的糾正性維護。
                            • 人工智能系統逐漸增加的不透明性和不可重復性。
                            • 不完善的軟件測試標準,并且難以按照傳統工程軟件的標準來記錄基于人工智能的實踐。
                            • 難以對人工智能軟件進行常規的軟件測試,或確定要測試內容,因為人工智能系統不同于傳統代碼開發的受控環境。
                            • 開發人工智能系統需要大量計算成本,及其對環境和地球的影響。
                            • 無法在統計學測量方法之外預測或檢測人工智能系統的副作用。

                             

                            關于TÜV南德人工智能服務

                            對于人工智能開發企業和應用企業,人工智能的風險以及質量都是至關重要的。除了性能以外,人工智能在自主性,公平性,透明性與可解釋性,數據保護,信息安全,可靠性與魯棒性等格方面的風險都要得到有效的評估和控制。人工智能的風險管理應貫穿于從概念,開發,部署,運營直到退役的全生命周期。

                            TÜV南德作為全球領先的TIC (Testing, Inspection, Certification) 機構,在人工智能的審計領域也有著堅實的基礎。TÜV南德全球數字服務中心首席技術官Martin Saebeck博士是ISO與IEC的聯合技術委員會JTC 1/SC 42標準工作組的核心成員,并正在主持多項人工智能國際標準的起草工作。此外TÜV南德全領域的專家深入參與了各垂直領域,如醫療設備、自動駕駛、機械安全等的國際法規與標準起草工作。 

                            在大中華區,TÜV南德也組建了專業的人工智能評估團隊,該團隊由TÜV南德大中華區商用產品和交通服務部高級副總裁Robert Puto先生領導,旨在幫助中國企業高質量的應用人工智能技術,開發并提供可信賴的人工智能相關產品與服務,經由TÜV南德的合規性檢查及技術評估達到國際市場準入標準,并提供全生命周期的保障服務。

                            更多

                            LinkedIn WeChat WeChat

                            Site Selector

                              <font id="jpbfj"><ruby id="jpbfj"><form id="jpbfj"></form></ruby></font>

                                  <dfn id="jpbfj"><ruby id="jpbfj"></ruby></dfn>

                                  <mark id="jpbfj"><strike id="jpbfj"></strike></mark>

                                  <dfn id="jpbfj"><ruby id="jpbfj"></ruby></dfn>

                                                <dfn id="jpbfj"></dfn>
                                              <dfn id="jpbfj"><i id="jpbfj"><video id="jpbfj"></video></i></dfn>

                                              <dfn id="jpbfj"><i id="jpbfj"><p id="jpbfj"></p></i></dfn>

                                                      444jjj