午夜片神马影院福利_欧美成人a猛片在线播放_1000部夫妻午夜免费_伪娘+无码番号_金瓶梅1-5在线电影版播放_嗯啊小sao货奶头好硬视频_浪荡人妻共32部黑人大凶器电影_91蜜桃视频在线观看_巜少妇的 惑意大利电影

彩神v中國(guó)
聯(lián)系電話: 010-8882344888
生成式人工智能在征信領(lǐng)域的應(yīng)用研究:前景、風(fēng)險(xiǎn)與對(duì)策
日期:2024-11-07 23:59:21 

  彩神v摘要:生成式人工智能憑借強(qiáng)大的自主學(xué)習(xí)能力、關(guān)聯(lián)分析能力、結(jié)果輸出能力,在征信領(lǐng)域具有提高信息輸入效率、提升信用評(píng)估準(zhǔn)確性、生成與解讀信用報(bào)告、預(yù)知風(fēng)險(xiǎn)的應(yīng)用潛能,但也面臨著多重挑戰(zhàn)。

  結(jié)合技術(shù)原理與征信領(lǐng)域的特性,可從輸出結(jié)果的質(zhì)量問(wèn)題、數(shù)據(jù)泄露的安全問(wèn)題、信息處理的合規(guī)問(wèn)題三個(gè)方面剖析征信領(lǐng)域應(yīng)用生成式人工智能的風(fēng)險(xiǎn)隱患。

  為平衡創(chuàng)新發(fā)展與風(fēng)險(xiǎn)防范,應(yīng)在規(guī)范體系層面倡導(dǎo)目標(biāo)導(dǎo)向式的框架性立法、以人為本確立基本原則,在治理主體層面倡導(dǎo)協(xié)同共治、多元參與,在監(jiān)督管理層面倡導(dǎo)包容審慎的監(jiān)管立場(chǎng)與分類(lèi)分級(jí)的監(jiān)管方式并行。

  傳統(tǒng)專(zhuān)家系統(tǒng)式的人工智能技術(shù),由于一切決策都基于給定的規(guī)則設(shè)計(jì),因而不具備理解復(fù)雜指令、事物背景的能力,僅能勝任對(duì)簡(jiǎn)單任務(wù)的執(zhí)行。生成式人工智能技術(shù)則能夠根據(jù)給定的提示,憑借在訓(xùn)練數(shù)據(jù)中學(xué)習(xí)的模式和規(guī)律,自主生成新的、原創(chuàng)性的內(nèi)容,因而具有開(kāi)放性和拓展性,可以被應(yīng)用于更廣泛的場(chǎng)景之中執(zhí)行不特定任務(wù),更好地處理生產(chǎn)生活中的復(fù)雜問(wèn)題,這為各行業(yè)實(shí)現(xiàn)業(yè)務(wù)創(chuàng)新與流程革新提供了更加先進(jìn)的工具和手段。

  以美國(guó) Open AI 公司于 2022 年 11 月推出的自然語(yǔ)言處理模型ChatGPT為標(biāo)志,人工智能發(fā)展實(shí)現(xiàn)了從“規(guī)則式”到“生成式”的技術(shù)模式轉(zhuǎn)變,有關(guān)研究與應(yīng)用均被推向一個(gè)新的高度,迅速成為數(shù)字經(jīng)濟(jì)發(fā)展的最新趨勢(shì)。

  在此背景下,“人工智能+”于2024年被首次寫(xiě)入我國(guó)《政府工作報(bào)告》之中,這不僅是對(duì)發(fā)展人工智能技術(shù)重要性的強(qiáng)調(diào),更是全面推進(jìn)科技與經(jīng)濟(jì)深度融合的行動(dòng)計(jì)劃,旨在通過(guò)人工智能于各個(gè)領(lǐng)域的高效應(yīng)用,在資源配置、知識(shí)擴(kuò)散、業(yè)態(tài)創(chuàng)新等方面產(chǎn)生顯著影響,進(jìn)一步賦能創(chuàng)新升級(jí)與服務(wù)效率提升。

  同年4月,中國(guó)人民銀行征信管理局提出支持征信機(jī)構(gòu)運(yùn)用大數(shù)據(jù)、人工智能等新技術(shù)進(jìn)行產(chǎn)品創(chuàng)新,為普惠金融發(fā)展提供多元化、差異化的信用信息服務(wù)。作為應(yīng)用較早且成效顯著的一個(gè)領(lǐng)域,從智能客服到信用數(shù)據(jù)的處理,人工智能技術(shù)早已在征信業(yè)中發(fā)揮了重要作用。不過(guò),如同其他行業(yè)一樣,此前征信領(lǐng)域應(yīng)用的人工智能技術(shù)多以規(guī)則式的專(zhuān)家系統(tǒng)為主,在范圍上相對(duì)有限。生成式人工智能技術(shù)的出現(xiàn)帶來(lái)了新的可能,但也伴隨著新的風(fēng)險(xiǎn)與挑戰(zhàn)。

  本文旨在探索生成式人工智能在征信領(lǐng)域的應(yīng)用前景,并在系統(tǒng)梳理可能面臨的風(fēng)險(xiǎn)隱患基礎(chǔ)之上,試從治理對(duì)策的角度,就如何平衡創(chuàng)新發(fā)展與風(fēng)險(xiǎn)防范的關(guān)系展開(kāi)論述。

  生成式人工智能的底層架構(gòu)由多層人工神經(jīng)元組成,靈感來(lái)自于人腦的結(jié)構(gòu)和功能。依托這種架構(gòu),生成式人工智能相比以往的人工智能技術(shù)在解決問(wèn)題的方式上會(huì)更像人類(lèi),在自主學(xué)習(xí)能力、關(guān)聯(lián)分析能力與結(jié)果輸出能力方面有著質(zhì)的突破,這為其在征信領(lǐng)域的應(yīng)用奠定了技術(shù)基礎(chǔ)。

  專(zhuān)家系統(tǒng)式的人工智能在架構(gòu)上包括兩個(gè)部分:一是擁有特定知識(shí)和經(jīng)驗(yàn)的知識(shí)庫(kù);二是負(fù)責(zé)解釋和調(diào)度工作的推理機(jī)。在技術(shù)原理上,由推理機(jī)將用戶(hù)輸入的信息與知識(shí)庫(kù)中各個(gè)規(guī)則的條件進(jìn)行匹配,并將被匹配規(guī)則的結(jié)論呈現(xiàn)給用戶(hù)。以智能客服為例,通過(guò)將用戶(hù)遇到的常見(jiàn)問(wèn)題與對(duì)應(yīng)的解決舉措預(yù)設(shè)在知識(shí)庫(kù),人工智能就能夠?qū)τ脩?hù)的反饋?zhàn)鞒黾皶r(shí)回應(yīng),從而有效降低用人成本。

  然而,由于程序執(zhí)行的結(jié)果完全基于知識(shí)庫(kù)中預(yù)設(shè)的規(guī)則,其在投入使用前需要通過(guò)人工的方式逐一設(shè)計(jì),且一旦用戶(hù)輸入的信息超出預(yù)設(shè)的范圍,將會(huì)無(wú)法輸出有效的結(jié)果,因此存在制作成本高、可移植性與通用性差的弊病。

  生成式人工智能則以機(jī)器學(xué)習(xí)為技術(shù)原理,這也是其強(qiáng)大理解能力和內(nèi)容生成能力的基礎(chǔ)。在其架構(gòu)中,開(kāi)發(fā)者并不給定預(yù)先設(shè)置的規(guī)則,而是由機(jī)器通過(guò)大規(guī)模的訓(xùn)練數(shù)據(jù)自主學(xué)習(xí),從中捕捉輸入信息與輸出結(jié)果之間在統(tǒng)計(jì)學(xué)意義上的關(guān)聯(lián),利用機(jī)器自身學(xué)習(xí)所得的“經(jīng)驗(yàn)”輸出內(nèi)容,包括提供信息、回答問(wèn)題、圖形繪畫(huà)、解釋概念、提供建議和自動(dòng)編程等。

  可以說(shuō),這種架構(gòu)賦予了人工智能持續(xù)性、實(shí)時(shí)性的自主學(xué)習(xí)能力,只需要將現(xiàn)有的相關(guān)數(shù)據(jù)集“投喂”給人工智能進(jìn)行自訓(xùn)練、自學(xué)習(xí),其就能夠不斷適應(yīng)新環(huán)境、新場(chǎng)景和新任務(wù),以實(shí)現(xiàn)對(duì)不同領(lǐng)域、多種任務(wù)的處理,而無(wú)需人為介入再去設(shè)計(jì)細(xì)致、全面的規(guī)則。

  因此,盡管在早期階段可能會(huì)有較高的訓(xùn)練成本,但這種持續(xù)性的自主學(xué)習(xí)能力意味著生成式人工智能具有技術(shù)原理上的可移植性與通用性,能夠經(jīng)過(guò)“微調(diào)”被推廣到不同的應(yīng)用場(chǎng)景,并在規(guī)模效應(yīng)的作用下大幅降低每個(gè)具體場(chǎng)景的開(kāi)發(fā)成本。

  基于機(jī)器學(xué)習(xí)的技術(shù)原理,還給生成式人工智能帶來(lái)了自適應(yīng)的關(guān)聯(lián)分析能力。相比自主學(xué)習(xí)能力對(duì)可移植性與通用性的側(cè)重,關(guān)聯(lián)分析能力使得人工智能無(wú)需人為進(jìn)行顯著的干預(yù),就能夠經(jīng)過(guò)不斷迭代和自我完善,持續(xù)提升分析和挖掘事物之間多維度關(guān)聯(lián)性的能力,提高輸出結(jié)果的精確性。

  專(zhuān)家系統(tǒng)式的人工智能被設(shè)計(jì)出來(lái)的前提,在于某一領(lǐng)域的知識(shí)經(jīng)驗(yàn)被人所熟悉掌握,從而人們能夠根據(jù)條件與結(jié)果之間的關(guān)聯(lián)性設(shè)計(jì)出線性的因果規(guī)則。然而,在諸多復(fù)雜領(lǐng)域中,條件與結(jié)果之間的關(guān)聯(lián)性并非是簡(jiǎn)單線性的,而是多維度的,知識(shí)與經(jīng)驗(yàn)不可能為人們所完全掌握。AlphaGO與人類(lèi)在圍棋上對(duì)弈的例子,更是表明了人們所認(rèn)為存在著的關(guān)聯(lián)性未必就是正確的。

  基于機(jī)器學(xué)習(xí)的生成式人工智能,則能夠在自我迭代與進(jìn)化中持續(xù)優(yōu)化、動(dòng)態(tài)升級(jí),使輸出的結(jié)果不斷接近真實(shí)世界運(yùn)作的情況:根據(jù)縮放定律(scaling law),只要訓(xùn)練數(shù)據(jù)夠大、參數(shù)夠多、算力夠強(qiáng),生成式人工智能就能展現(xiàn)出相應(yīng)級(jí)別的涌現(xiàn)能力(emergent abilities);這種涌現(xiàn)能力又不斷地反饋給自身,以幫助其持續(xù)改進(jìn)關(guān)聯(lián)性分析模型,提高輸出表現(xiàn),甚至作出比人類(lèi)更為精準(zhǔn)、高效的關(guān)聯(lián)性分析。

  譬如,在生物學(xué)領(lǐng)域,傳統(tǒng)的蛋白質(zhì)解構(gòu)方法可能需要數(shù)年時(shí)間,才能描繪出單個(gè)蛋白質(zhì)的形狀,成本高昂的同時(shí)還不能保證成功解析其結(jié)構(gòu)。而接受過(guò)大量蛋白質(zhì)結(jié)構(gòu)數(shù)據(jù)訓(xùn)練的人工智能,能夠結(jié)合物理、化學(xué)和生物學(xué)的先驗(yàn)知識(shí),在較短時(shí)間內(nèi)就可以給出對(duì)蛋白質(zhì)結(jié)構(gòu)解析的預(yù)測(cè)模型。

  在持續(xù)性的自主學(xué)習(xí)能力和自適應(yīng)的關(guān)聯(lián)分析能力加持下,生成式人工智能具有遠(yuǎn)超傳統(tǒng)人工智能的理解能力與交互能力,使得用戶(hù)無(wú)需學(xué)習(xí)編程語(yǔ)言就能夠?qū)崿F(xiàn)與機(jī)器的對(duì)話,并以此為基礎(chǔ),在結(jié)果輸出能力上有質(zhì)的突破。

  以 ChatGPT 為例,基于 Transformer 的機(jī)器學(xué)習(xí)架構(gòu)使其能夠借助自注意力機(jī)制高效地處理序列數(shù)據(jù),并具有理解該序列所對(duì)應(yīng)的前后序列的能力,通過(guò)捕捉語(yǔ)言之間的關(guān)系和結(jié)構(gòu)來(lái)幫助生成更一致與更關(guān)聯(lián)的響應(yīng),從而作出邏輯連貫的回答。

  于是,ChatGPT得以在幾十輪連續(xù)對(duì)話中保持對(duì)話主題的一致性和專(zhuān)注性,且具有相當(dāng)程度的交互能力與修正能力,可以根據(jù)對(duì)上下文的理解以及用戶(hù)的反饋來(lái)改進(jìn)自身生成的內(nèi)容。不僅如此,其還可以通過(guò)關(guān)鍵詞提取、命名實(shí)體識(shí)別和句法分析等技術(shù),從長(zhǎng)篇文本中提取關(guān)鍵信息并進(jìn)行匯總和歸納,以形成精煉且高度相關(guān)的內(nèi)容概括。這使得ChatGPT的輸出結(jié)果具有相當(dāng)?shù)膫€(gè)性化,經(jīng)過(guò)簡(jiǎn)單的“微調(diào)”就可在不同場(chǎng)景中滿足用戶(hù)的多樣化需求。

  例如,在醫(yī)療衛(wèi)生領(lǐng)域,經(jīng)過(guò)預(yù)先訓(xùn)練的ChatGPT能夠根據(jù)用戶(hù)提供的癥狀、年齡、病史等資料提取關(guān)鍵信息,結(jié)合醫(yī)學(xué)知識(shí)生成簡(jiǎn)明扼要的個(gè)性化診斷建議或治療方案。值得一提的是,ChatGPT 甚至能夠在對(duì)話中捕捉到用戶(hù)的語(yǔ)言情緒、措辭習(xí)慣等個(gè)性化特征,并據(jù)此生成接近用戶(hù)風(fēng)格的回答。這種以擬人化的姿態(tài)給予使用者人性化交流的感受,正是生成式人工智能的獨(dú)特之處。

  處在信息技術(shù)與金融服務(wù)的交叉領(lǐng)域,每一次技術(shù)的進(jìn)步都會(huì)促使征信業(yè)發(fā)生飛躍。根據(jù)我國(guó)《征信業(yè)管理?xiàng)l例》第2條規(guī)定,完整的征信業(yè)務(wù)流程可概括為輸入、處理、輸出三個(gè)階段。生成式人工智能的嵌入,有助于更加便捷高效地完成上述三個(gè)階段的工作。

  征信業(yè)務(wù)在輸入階段的工作主要是對(duì)信用信息的采集與整理。傳統(tǒng)的信用評(píng)估中,征信機(jī)構(gòu)需要通過(guò)逐一采集的方式,對(duì)征信對(duì)象的信用信息進(jìn)行識(shí)別、整理,這在線下、低頻的交易模式中并無(wú)大礙。互聯(lián)網(wǎng)時(shí)代,具有大量、高頻、小額特點(diǎn)的線上交易模式,催生了海量、廣泛的信用數(shù)據(jù),這迫使信息的采集、整理方式必須調(diào)整至與之相適應(yīng)。

  此前,大數(shù)據(jù)、爬蟲(chóng)等技術(shù)的應(yīng)用,已經(jīng)極大簡(jiǎn)化了信息的采集與整理流程。然而,由于操作門(mén)檻高,針對(duì)新場(chǎng)景需要重新設(shè)計(jì)算法,上述技術(shù)的全面推廣仍然受到成本方面的掣肘。得益于生成式人工智能強(qiáng)大的學(xué)習(xí)能力與自然語(yǔ)言處理能力,使用者不需要具有專(zhuān)業(yè)的計(jì)算機(jī)知識(shí),就能夠通過(guò)日常用語(yǔ)向機(jī)器提出需求,使“每個(gè)人都可以成為一個(gè)程序員”。這大大降低了此類(lèi)技術(shù)的使用難度,有助于征信機(jī)構(gòu)降低信息輸入的工作成本,提升整體效率。

  首先,征信機(jī)構(gòu)只需輸入篩選的條件與要求,經(jīng)過(guò)訓(xùn)練、“微調(diào)”的生成式人工智能就能夠借助其自主學(xué)習(xí)形成的算法迅速完成海量信用信息的采集。其次,借助生成式人工智能提取關(guān)鍵信息、匯總、歸納的能力,征信機(jī)構(gòu)能夠以極低的人力資源、極短的工作時(shí)間對(duì)海量數(shù)據(jù)進(jìn)行整理,實(shí)現(xiàn)信用信息輸入工作的高效完成。

  傳統(tǒng)征信業(yè)務(wù)在處理階段的工作,主要是由輸入的信用信息經(jīng)過(guò)給定的算法或規(guī)則計(jì)算完成。由于是人為設(shè)計(jì)且固定不變的,因此會(huì)存在算法不夠完善、無(wú)法具體情況具體分析、無(wú)法及時(shí)調(diào)整規(guī)則等方面的弊端,以至于影響評(píng)估結(jié)果的準(zhǔn)確性,使其無(wú)法反映真實(shí)情況。例如因部分信息的不理想而被一刀切列入負(fù)面清單。

  生成式人工智能在處理階段的嵌入,有助于提升信用評(píng)估的準(zhǔn)確性。具體而言,經(jīng)過(guò)海量信用數(shù)據(jù)的訓(xùn)練,生成式人工智能可以憑借其關(guān)聯(lián)分析能力,構(gòu)建更為復(fù)雜和全面的評(píng)估模型;并在此基礎(chǔ)上,結(jié)合征信對(duì)象的歷史數(shù)據(jù)與個(gè)性,不斷完善、深化模型,避免因部分信息的不理想而導(dǎo)致整體評(píng)估存在偏見(jiàn),最終促使評(píng)估結(jié)果更加趨近個(gè)體的實(shí)際情況。

  Google公司就曾在對(duì)消費(fèi)者作信用評(píng)估時(shí)發(fā)現(xiàn),人工智能可以對(duì)那些僅擁有部分信用記錄的消費(fèi)者得出相對(duì)良好的信用評(píng)估結(jié)果。在對(duì)消費(fèi)者負(fù)面信息進(jìn)行深入挖掘的過(guò)程中,評(píng)估模型通過(guò)替代數(shù)據(jù)的尋找和補(bǔ)償,發(fā)現(xiàn)不少傳統(tǒng)規(guī)則下為負(fù)面評(píng)價(jià)的消費(fèi)者其實(shí)具有很強(qiáng)的還款意愿,從而給出了更為真實(shí)、準(zhǔn)確的信用評(píng)估。

  生成式人工智能在征信業(yè)務(wù)的輸出階段同樣應(yīng)用前景廣泛,其個(gè)性化的結(jié)果輸出能力,使其在生成、解讀信用報(bào)告方面具有巨大潛力。

  一方面,憑借提取關(guān)鍵信息、歸納總結(jié)的能力,生成式人工智能能夠?qū)ο惹罢硭玫男庞眯畔⒆鬟M(jìn)一步的整合分析,并在自然語(yǔ)言理解能力和生成能力的加持下,根據(jù)使用者在內(nèi)容、格式等方面提出的要求,自動(dòng)批量地生成不同側(cè)重、不同篇幅的信用報(bào)告,從而替代大量的人工操作和處理流程。

  另一方面,從征信的目的來(lái)看,使用者所需要的并非是信用報(bào)告本身,而是隱藏在信用報(bào)告背后的信用評(píng)估結(jié)論。就報(bào)告本身而言,雖然包含豐富的信用信息,但由于這些信息都是非結(jié)構(gòu)化的,通過(guò)排列組合能夠得到不同的結(jié)論,因此如何有效解讀信用報(bào)告中大量的非結(jié)構(gòu)化信息,一直都是信用評(píng)估的重點(diǎn)與難點(diǎn)。對(duì)于經(jīng)過(guò)預(yù)先訓(xùn)練的生成式人工智能來(lái)說(shuō),由于其出色的自然語(yǔ)言理解能力和結(jié)果輸出能力,完全可以從使用者思維的角度解讀冗長(zhǎng)的信用報(bào)告,并通過(guò)不斷地交互與對(duì)話明確使用者的真正需求,給出針對(duì)性的意見(jiàn)或建議,有效幫助使用者準(zhǔn)確把握信用報(bào)告中的關(guān)鍵內(nèi)容。

  傳統(tǒng)的征信業(yè)務(wù)以報(bào)告的出具為流程終點(diǎn),報(bào)告內(nèi)容是對(duì)征信對(duì)象過(guò)去行為的總結(jié)與回顧,最終的風(fēng)控措施往往由使用者根據(jù)對(duì)報(bào)告的自身解讀作出。然而,由于每個(gè)人都會(huì)有自己的主觀看法與偏見(jiàn),同時(shí)受限于專(zhuān)業(yè)知識(shí)的不足,由此形成的風(fēng)控措施就會(huì)不可避免地帶有某種系統(tǒng)性偏差。

  生成式人工智能在機(jī)器學(xué)習(xí)深入的過(guò)程中,可以根據(jù)不同對(duì)象的歷史數(shù)據(jù)或“趨勢(shì)性”數(shù)據(jù)構(gòu)建個(gè)性化的預(yù)測(cè)模型,在此基礎(chǔ)上結(jié)合實(shí)時(shí)數(shù)據(jù)流來(lái)感知潛在的風(fēng)險(xiǎn)變化,全面評(píng)估面向未來(lái)的信用風(fēng)險(xiǎn),因而具有將業(yè)務(wù)流程拓展至風(fēng)險(xiǎn)監(jiān)測(cè)環(huán)節(jié)的潛能。而且因?yàn)闇p少了人為因素所致的系統(tǒng)性偏差,從某種意義上來(lái)說(shuō),生成式人工智能相對(duì)于人類(lèi)個(gè)體而言具有更為一致、穩(wěn)定的風(fēng)險(xiǎn)預(yù)知能力。更值一提的是,自主學(xué)習(xí)與關(guān)聯(lián)分析的能力還使得生成式人工智能特別擅長(zhǎng)識(shí)別異常情況,這對(duì)發(fā)現(xiàn)可能的欺詐行為或不尋常的交易活動(dòng)至關(guān)重要。這種針對(duì)性反饋的能力正是如今復(fù)雜、多樣的社會(huì)信用環(huán)境所急需的。通過(guò)對(duì)異常行為的提示,金融機(jī)構(gòu)可以及時(shí)采取措施預(yù)防損失發(fā)生。

  生成式人工智能在征信領(lǐng)域的多方面應(yīng)用潛能,雖然能夠助力征信機(jī)構(gòu)實(shí)現(xiàn)更為精準(zhǔn)、定制化及實(shí)時(shí)的信用評(píng)估服務(wù),幫助金融機(jī)構(gòu)做好風(fēng)險(xiǎn)管理,保護(hù)自身利益并維護(hù)市場(chǎng)穩(wěn)定,但目前該項(xiàng)技術(shù)距離在征信領(lǐng)域的成熟應(yīng)用,仍然面臨著一系列的挑戰(zhàn)。

  雖然相比以往的人工智能,生成式人工智能在自然語(yǔ)言處理能力上取得了重大突破,但在深度語(yǔ)義理解、邏輯連貫性以及特定知識(shí)的整合運(yùn)用上還存在諸多不足,這使得其輸出的文本在專(zhuān)業(yè)性上難以保證。

  依賴(lài)于統(tǒng)計(jì)學(xué)關(guān)聯(lián)而非因果推理的技術(shù)原理,使得生成式人工智能尚且只能做到對(duì)淺層信息的歸納與整理,而缺乏專(zhuān)業(yè)角度的深入分析,無(wú)法真正像人類(lèi)那樣理解和解釋復(fù)雜信息背后的底層邏輯或深層次含義。這種缺陷又進(jìn)一步導(dǎo)致了其在邏輯連貫性上的短板,可能因前序理解的不深入而引起后續(xù)分析的割裂。

  此外,生成式人工智能在其模型訓(xùn)練中所注重的是通用性的語(yǔ)言表達(dá)能力,對(duì)于不同領(lǐng)域?qū)I(yè)知識(shí)的訓(xùn)練往往是淺薄且分散的,因此學(xué)到的專(zhuān)業(yè)知識(shí)同樣是碎片化的,無(wú)法保證其在細(xì)分領(lǐng)域的專(zhuān)業(yè)深度。

  由此,如果在訓(xùn)練數(shù)據(jù)中缺乏征信領(lǐng)域的專(zhuān)業(yè)知識(shí),那么輸出的結(jié)果在形式上可能存在專(zhuān)業(yè)性不足的問(wèn)題。盡管能夠進(jìn)行針對(duì)性的“微調(diào)”,但在征信領(lǐng)域的嚴(yán)格規(guī)則限制下,對(duì)專(zhuān)業(yè)知識(shí)的運(yùn)用往往需要深入理解信息之間的交互作用、因果關(guān)系,而不僅僅只是概率上的關(guān)聯(lián)。在當(dāng)前技術(shù)水平下,生成式人工智能雖然可以做到對(duì)專(zhuān)業(yè)報(bào)告在復(fù)雜文本結(jié)構(gòu)和語(yǔ)言模式上的模仿,但因在深層邏輯上缺乏因果推理能力而無(wú)法捕捉到信息之間的細(xì)微差別,其模仿的結(jié)果仍可能會(huì)是“一本正經(jīng)地胡說(shuō)八道”。

  通過(guò)在征信領(lǐng)域的針對(duì)性訓(xùn)練,配合圍繞征信規(guī)則設(shè)計(jì)的專(zhuān)家系統(tǒng)和知識(shí)圖譜,輸出結(jié)果在文本專(zhuān)業(yè)性上的不足能夠得到一定彌補(bǔ)。然而在內(nèi)容可靠性上,生成式人工智能存在著難以克服的自身缺陷,具體包括內(nèi)容偏見(jiàn)和內(nèi)容失實(shí)兩個(gè)方面。由于在表現(xiàn)形式上更為隱蔽,這種危害更甚。

  內(nèi)容偏見(jiàn)的缺陷,是因?yàn)樯墒饺斯ぶ悄茌敵龅慕Y(jié)果在根本上取決于算法的選擇以及用于模型訓(xùn)練的龐大數(shù)據(jù)庫(kù)。這就可能帶來(lái)如下隱患:開(kāi)發(fā)者出于特定的利益考量或自身偏好去設(shè)計(jì)帶有偏見(jiàn)的算法,或者使用帶有偏見(jiàn)的數(shù)據(jù)樣本進(jìn)行訓(xùn)練,生成式人工智能的輸出結(jié)果就可能會(huì)更符合開(kāi)發(fā)者的個(gè)人意圖而背離客觀中立的價(jià)值立場(chǎng)。這種情況下,生成式人工智能絕非是一個(gè)價(jià)值中立、沒(méi)有偏見(jiàn)的工具。譬如,出于對(duì)地域或職業(yè)的偏見(jiàn),開(kāi)發(fā)者可能會(huì)主觀地認(rèn)為某一類(lèi)群體的信用狀況較差,如果這種沒(méi)有根據(jù)的想法被融入算法或數(shù)據(jù)庫(kù)之中,人工智能的輸出結(jié)果就會(huì)呈現(xiàn)出某種偏向,作出的信用評(píng)估可能導(dǎo)致某一類(lèi)群體的利益受到嚴(yán)重?fù)p害。

  內(nèi)容失實(shí)的缺陷,根源仍然在于生成式人工智能基于統(tǒng)計(jì)學(xué)關(guān)聯(lián)而非基于因果推理的技術(shù)原理。因此對(duì)于輸出的內(nèi)容是否真實(shí)準(zhǔn)確,人工智能自身無(wú)法作出有效判斷,甚至可能會(huì)因?yàn)楸匾畔⑷笔?、替代信息不存在而捏造虛假信息。美?guó)就曾發(fā)生過(guò)律師錯(cuò)誤引用ChatGPT編造的虛假案例的事件。如果生成式人工智能輸出的虛假信息被誤用于信用評(píng)估,勢(shì)必嚴(yán)重影響征信結(jié)果的可靠性,從而進(jìn)一步導(dǎo)致相關(guān)風(fēng)險(xiǎn)管理舉措缺乏合理性。

  與其他計(jì)算機(jī)程序一樣,生成式人工智能作為一套復(fù)雜系統(tǒng),自身可能存在諸多未知的風(fēng)險(xiǎn)隱患。諸如算法設(shè)計(jì)不當(dāng)、存儲(chǔ)系統(tǒng)異常、安全漏洞等技術(shù)缺陷,都會(huì)導(dǎo)致其在模型的訓(xùn)練過(guò)程中面臨數(shù)據(jù)泄露的安全隱患。微軟、亞馬遜等多家科技公司就曾警告員工不要與ChatGPT分享任何敏感信息,以免數(shù)據(jù)泄露而導(dǎo)致商業(yè)利益受損。事實(shí)證明,這種擔(dān)憂并非空穴來(lái)風(fēng)。

  在 2023 年 3 月,ChatGPT 發(fā)生了一起極為嚴(yán)重的數(shù)據(jù)安全事故,部分用戶(hù)的聊天記錄、信用卡信息、電子郵件等信息遭到泄露,而這可能是因?yàn)椴糠稚婕皞€(gè)人信息的數(shù)據(jù)被模型用于訓(xùn)練后未及時(shí)刪除,疊加內(nèi)部開(kāi)源數(shù)據(jù)庫(kù)出現(xiàn)技術(shù)故障所致。

  隨著人們對(duì)數(shù)據(jù)安全的進(jìn)一步重視與發(fā)展,去標(biāo)識(shí)化、匿名化等技術(shù)手段日漸成熟。然而,生成式人工智能在模型訓(xùn)練過(guò)程中所涉及的數(shù)據(jù)體量之大、處理主體之多、處理環(huán)節(jié)之長(zhǎng),遠(yuǎn)超傳統(tǒng)的數(shù)據(jù)處理系統(tǒng),“一招不慎、滿盤(pán)皆輸”,其所面臨的泄露風(fēng)險(xiǎn)也會(huì)成倍增加。為使分析、輸出的結(jié)果更加精準(zhǔn),征信領(lǐng)域應(yīng)用生成式人工智能勢(shì)必需要借助專(zhuān)業(yè)的信用數(shù)據(jù)庫(kù)進(jìn)行針對(duì)性訓(xùn)練。

  通常來(lái)說(shuō),信用數(shù)據(jù)包括了身份識(shí)別、金融賬戶(hù)等高度敏感的個(gè)人信息,一旦泄露或者被非法使用,極容易導(dǎo)致自然人的人格尊嚴(yán)受到侵害或者人身、財(cái)產(chǎn)安全受到危害,造成難以挽回的災(zāi)難性后果。

  除技術(shù)缺陷在模型訓(xùn)練中引起的直接泄露風(fēng)險(xiǎn)之外,生成式人工智能還存在著一種數(shù)據(jù)間接泄露的風(fēng)險(xiǎn)。由于人工智能需要通過(guò)不斷地自我迭代來(lái)持續(xù)升級(jí)和優(yōu)化模型,因此在理論上,存在上一版本訓(xùn)練過(guò)程中收集得到的數(shù)據(jù)被下一版本作為訓(xùn)練成果而輸出的可能性,從而泄露包括用戶(hù)上傳的敏感數(shù)據(jù)、個(gè)人信息和商業(yè)機(jī)密在內(nèi)的訓(xùn)練數(shù)據(jù)。

  盡管生成式人工智能在發(fā)布時(shí)通常都會(huì)采取安全措施,盡可能地刪除有關(guān)信息或作匿名化處理,但從現(xiàn)有的技術(shù)水平來(lái)看,完全、徹底的刪除或匿名化都是無(wú)法實(shí)現(xiàn)的,因而仍然會(huì)有部分信息殘留被最終發(fā)布的模型所輸出。自然,對(duì)于一般的個(gè)人使用者來(lái)說(shuō),這些分散在不同輸出結(jié)果中的信息殘留并無(wú)太大的利用價(jià)值。但由于數(shù)據(jù)挖掘、分析的技術(shù)不斷進(jìn)步,如今業(yè)已形成了一種通過(guò)對(duì)比、組合海量數(shù)據(jù),將零碎信息拼湊、組合形成完整信息的“拼圖技術(shù)”。別有用心者能夠以此實(shí)現(xiàn)對(duì)信息的再識(shí)別,且每一次的再識(shí)別都會(huì)助長(zhǎng)未來(lái)的再識(shí)別,最終在高頻、漸進(jìn)的迭代累加下,任何分散的信息碎片都可能通過(guò)不斷拼湊而形成完整的數(shù)據(jù)集。由于形式上的隱蔽性,利用數(shù)據(jù)的間接泄露達(dá)到非法目的將會(huì)很難被發(fā)現(xiàn)和察覺(jué),嚴(yán)重時(shí)還可能威脅到國(guó)家數(shù)據(jù)與社會(huì)金融體系的安全性。

  處理個(gè)人信息應(yīng)當(dāng)具有明確、合理的目的,且必須與處理目的直接相關(guān),并采取對(duì)個(gè)人權(quán)益影響最小的方式,不得過(guò)度收集,此即為我國(guó)《個(gè)人信息保護(hù)法》所規(guī)定的個(gè)人信息處理之目的限制原則。從信息輸入端來(lái)看,生成式人工智能突破目的限制原則的情形屢屢發(fā)生,信息處理存在合規(guī)問(wèn)題。

  個(gè)人信息處理者在收集個(gè)人信息時(shí),通常需采取“一對(duì)一”的方式在告知程序中向信息主體明確說(shuō)明個(gè)人信息的處理目的并取得同意;倘若處理目的發(fā)生變更,則需要再次履行告知程序并重新取得同意。但絕大多數(shù)情況下,生成式人工智能并不會(huì)就信息的收集以及后續(xù)在模型訓(xùn)練中的處理情況向信息主體作出明確提示,用戶(hù)甚至無(wú)法知道與之相關(guān)的個(gè)人信息是否已經(jīng)被收集,更無(wú)從知悉個(gè)人信息的處理目的。

  即便已經(jīng)明確告知信息主體相關(guān)處理目的并取得同意,隨著應(yīng)用場(chǎng)景發(fā)生變化,生成式人工智能對(duì)此前收集所得的個(gè)人信息進(jìn)行重新處理也是十分常見(jiàn)的。由于涉及的信息在數(shù)量上十分巨大,逐一向信息主體重新取得同意不具備實(shí)現(xiàn)的可能性,模型訓(xùn)練直接面臨合規(guī)性考驗(yàn)。更需要關(guān)注的是,與征信有關(guān)的個(gè)人信息通常都高度敏感。從我國(guó)《個(gè)人信息保護(hù)法》的規(guī)定來(lái)看,只有具備特定的目的和充分的必要性,并在取得個(gè)人單獨(dú)同意的情況下,方可處理敏感個(gè)人信息。這意味著對(duì)信用信息的處理許可不容許被用戶(hù)的概括同意所包括,而必須取得個(gè)人信息主體的單獨(dú)同意,甚至在特定情況下還需要取得用戶(hù)的書(shū)面同意,無(wú)疑給征信領(lǐng)域應(yīng)用生成式人工智能的合規(guī)性帶來(lái)了更為嚴(yán)峻的挑戰(zhàn)。

  根據(jù)我國(guó)《個(gè)人信息保護(hù)法》第24條規(guī)定,利用個(gè)人信息進(jìn)行自動(dòng)化決策,應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正。從運(yùn)行原理來(lái)看,征信領(lǐng)域應(yīng)用生成式人工智能分析信用數(shù)據(jù)、輸出信用評(píng)估報(bào)告符合自動(dòng)化決策的定義,應(yīng)當(dāng)嚴(yán)格遵守這一條款,確保決策透明度和結(jié)果的公平、公正。前文已對(duì)算法、數(shù)據(jù)偏見(jiàn)引起的輸出結(jié)果質(zhì)量問(wèn)題有所論及,在此不再贅述。關(guān)鍵在于,即便是在算法中立客觀、公開(kāi)透明的情況下,生成式人工智能在信息輸出端也會(huì)因算法的可解釋性不足而面臨合規(guī)性考驗(yàn)。

  既有研究認(rèn)為算法可解釋性不足的原因主要包括兩個(gè)方面:一是算法的專(zhuān)業(yè)性與復(fù)雜性,在一定程度上犧牲了算法的可解釋性;二是在商業(yè)秘密與知識(shí)產(chǎn)權(quán)制度的保護(hù)下,算法可解釋的行動(dòng)力會(huì)受到阻礙。

  因此在對(duì)策建議上,如果涉及公眾利益,通常會(huì)追求算法的備案、算法的審查乃至算法的全面公開(kāi)。然而,生成式人工智能的算法模型不僅高度專(zhuān)業(yè)與復(fù)雜,其決策更是以相關(guān)性為基礎(chǔ),得出的結(jié)論遠(yuǎn)非因果關(guān)系所能夠解釋清楚的?!爸淙欢恢渌匀弧钡臎Q策過(guò)程,使得算法的公開(kāi)透明毫無(wú)意義,因?yàn)榧幢闶撬惴ǖ脑O(shè)計(jì)者自身,也無(wú)法理解算法是怎樣作出決策的。

  同樣根據(jù)《個(gè)人信息保護(hù)法》第24條規(guī)定,通過(guò)自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定時(shí),個(gè)人有權(quán)要求個(gè)人信息處理者就決策過(guò)程、決策依據(jù)予以說(shuō)明。毫無(wú)疑問(wèn),征信評(píng)估的結(jié)果與個(gè)人切身利益關(guān)系密切。在算法自身無(wú)法保證決策透明度的情況下,如何向征信對(duì)象解釋決策過(guò)程,將會(huì)是征信機(jī)構(gòu)應(yīng)用生成式人工智能的重大挑戰(zhàn)。

  技術(shù)上的突破,使得生成式人工智能在征信領(lǐng)域具有相當(dāng)可觀的應(yīng)用前景,但同時(shí)也面臨著前述諸多挑戰(zhàn)。因此,亟須通過(guò)制定切實(shí)的治理對(duì)策,在充分開(kāi)發(fā)應(yīng)用潛能的同時(shí),預(yù)防潛在風(fēng)險(xiǎn)造成的損害。

  從規(guī)制的對(duì)象來(lái)看,征信領(lǐng)域應(yīng)用生成式人工智能面臨的風(fēng)險(xiǎn)隱患,可進(jìn)一步劃分為不當(dāng)使用產(chǎn)生的風(fēng)險(xiǎn)和系統(tǒng)自身存在的風(fēng)險(xiǎn)。就前者來(lái)說(shuō),在一定程度上仍可以通過(guò)傳統(tǒng)的要件式立法(例如侵權(quán)法)予以管制。但就后者而言,作為新生事物,生成式人工智能技術(shù)發(fā)展變化較快,情況相對(duì)復(fù)雜,傳統(tǒng)追求制度普遍性與穩(wěn)定性的要件式立法容易導(dǎo)致規(guī)制過(guò)度或規(guī)制不足,難以支撐起技術(shù)迭代、模式變革所需要的發(fā)展空間。

  因此,有必要引入一種目標(biāo)導(dǎo)向式的框架性立法理念,以立法者意圖實(shí)現(xiàn)的目標(biāo)為行為指引,將目標(biāo)達(dá)成的方式、方法、路徑等事項(xiàng)精準(zhǔn)授權(quán)給征信機(jī)構(gòu)和開(kāi)發(fā)者,在確保能夠達(dá)成目標(biāo)的情況下,由機(jī)構(gòu)和開(kāi)發(fā)者自主選擇與目標(biāo)相適宜的規(guī)制方式、行為標(biāo)準(zhǔn)、實(shí)現(xiàn)手段。

  從意圖實(shí)現(xiàn)的目標(biāo)來(lái)看,征信領(lǐng)域應(yīng)用生成式人工智能應(yīng)當(dāng)包括提升征信服務(wù)質(zhì)效、加強(qiáng)征信風(fēng)控水平和保護(hù)個(gè)人合法權(quán)益三項(xiàng)目標(biāo)。

  在具體的立法進(jìn)路上,一是可以參照我國(guó)2024年3月發(fā)布的《人工智能法(學(xué)者建議稿)》,在未來(lái)的人工智能立法中設(shè)置專(zhuān)門(mén)的條款,將征信領(lǐng)域明確規(guī)定為特殊應(yīng)用場(chǎng)景;二是在征信領(lǐng)域繼續(xù)加強(qiáng)法律制度供給,現(xiàn)有《征信業(yè)管理?xiàng)l例》《征信機(jī)構(gòu)管理辦法》《征信業(yè)務(wù)管理辦法》在效力層級(jí)上較低,僅為行政法規(guī)、部門(mén)規(guī)章,且并未對(duì)信用信息的使用邊界、應(yīng)用場(chǎng)景予以明確,在制定發(fā)布時(shí)尚未顧及人工智能發(fā)展對(duì)征信業(yè)可能的影響,有必要在將來(lái)制定“征信法”時(shí),將生成式人工智能作為一項(xiàng)重要因素考慮在內(nèi)。

  以上兩條立法進(jìn)路都需要對(duì)前述三項(xiàng)目標(biāo)予以明確規(guī)定。但為預(yù)留技術(shù)運(yùn)用的試驗(yàn)空間,總體上應(yīng)當(dāng)持較為寬松的規(guī)制立場(chǎng),賦予征信機(jī)構(gòu)和人工智能的開(kāi)發(fā)者更多自主權(quán)限,允許其自行設(shè)計(jì)與風(fēng)險(xiǎn)程度相匹配的程序及規(guī)則,通過(guò)“盡力合規(guī)”的方式達(dá)成目標(biāo)。與此同時(shí),為避免因規(guī)則指引不清晰引發(fā)自主權(quán)限被濫用、誤用,必須強(qiáng)化責(zé)任擔(dān)當(dāng),建構(gòu)以目標(biāo)達(dá)成度的判斷、目標(biāo)內(nèi)涵的解釋與手段選擇的說(shuō)理為核心的動(dòng)態(tài)法治框架。

  鑒于技術(shù)的迅速迭代和對(duì)業(yè)務(wù)創(chuàng)新的有益推進(jìn),目標(biāo)導(dǎo)向式的框架性立法不宜設(shè)置過(guò)細(xì)的法律義務(wù)和過(guò)重的監(jiān)管負(fù)擔(dān),但仍應(yīng)存在基本原則作為不可逾越的“底線”。

  一方面,法治應(yīng)當(dāng)充分保障人的自主性,算法決策卻在有意無(wú)意間逃離了法律之治,集中體現(xiàn)為法治觀念所強(qiáng)調(diào)的問(wèn)責(zé)性?xún)r(jià)值流失,這與人自主進(jìn)行的行為選擇存在本質(zhì)上的差異。對(duì)人工智能的過(guò)度依賴(lài),大有將人從決策主體淪落為決策“客體”之勢(shì)。

  另一方面,科技發(fā)展的目的是要更好地服務(wù)于人,在2023年10月中央網(wǎng)信辦發(fā)布的《全球人工智能治理倡議》中,在倡議首條即明確表示,“發(fā)展人工智能應(yīng)堅(jiān)持‘以人為本’理念……確保人工智能始終朝著有利于人類(lèi)文明進(jìn)步的方向發(fā)展”。這既是我國(guó)發(fā)展人工智能對(duì)世界的承諾,也是我國(guó)對(duì)處于人工智能時(shí)代的每個(gè)人的承諾。為此,需要圍繞以人為本的法治理念,確立如下幾項(xiàng)征信領(lǐng)域應(yīng)用生成式人工智能的基本原則。

  一是輔助性原則。生成式人工智能在原理上注定了其存在現(xiàn)有技術(shù)水平下難以彌合的固有缺陷,但由此引發(fā)的風(fēng)險(xiǎn)并非是不可控的,通過(guò)適時(shí)的人工介入,在很大程度上可以有效降低系統(tǒng)運(yùn)行的風(fēng)險(xiǎn),因此要堅(jiān)持“人在回路”?!叭嗽诨芈贰笔侵溉祟?lèi)作為算法決策的把關(guān)者介入算法決策的具體應(yīng)用場(chǎng)景,承擔(dān)包括糾正算法錯(cuò)誤、判斷是非、維護(hù)人類(lèi)利益等在內(nèi)的多重任務(wù)。

  在征信領(lǐng)域應(yīng)用生成式人工智能同樣應(yīng)當(dāng)堅(jiān)持“人在回路”,明晰其工具定位、輔助定位,以人工復(fù)核的形式對(duì)決策結(jié)果作最終定論,通過(guò)人的在場(chǎng)確保人類(lèi)理性、人類(lèi)倫理、人類(lèi)價(jià)值觀的在場(chǎng),起到對(duì)決策內(nèi)容準(zhǔn)確性的擔(dān)保與監(jiān)管作用,避免算法歧視、數(shù)據(jù)偏見(jiàn)對(duì)征信對(duì)象合法權(quán)益造成侵害。

  二是正當(dāng)程序原則。正當(dāng)程序主要包括事先告知、說(shuō)明理由、公平公正、聽(tīng)取陳述和申辯、提供救濟(jì)途徑幾個(gè)方面。生成式人工智能在信息的收集和處理上都存在透明度問(wèn)題,容易損害信息主體的知情權(quán),在涉及信用信息等敏感個(gè)人信息時(shí)存在嚴(yán)重的合規(guī)風(fēng)險(xiǎn)。

  對(duì)此,征信機(jī)構(gòu)在引入生成式人工智能輔助業(yè)務(wù)工作時(shí),特別需要保障征信對(duì)象的知情權(quán),應(yīng)當(dāng)告知征信對(duì)象可能被收集的個(gè)人信息類(lèi)型、用途,并且需要根據(jù)我國(guó)《個(gè)人信息保護(hù)法》的相關(guān)規(guī)定,就自動(dòng)化決策的存在作出說(shuō)明,向征信對(duì)象提供自動(dòng)化決策不針對(duì)其個(gè)人特征的選項(xiàng),或者提供拒絕自動(dòng)化決策的便捷途徑。

  三是比例原則。在可預(yù)見(jiàn)的將來(lái),生成式人工智能還不能夠很快實(shí)現(xiàn)決策過(guò)程完全透明、決策結(jié)果完全可解釋?zhuān)膊⒉灰馕吨耆牟煌该髋c完全的不可解釋。對(duì)此,應(yīng)當(dāng)堅(jiān)持比例原則,實(shí)現(xiàn)合乎比例的風(fēng)險(xiǎn)管理,確保目標(biāo)導(dǎo)向式的立法理念得到落實(shí)。

  例如,對(duì)于征信對(duì)象權(quán)益潛在影響越大,則越應(yīng)當(dāng)追求生成式人工智能算法的成熟性,確保決策過(guò)程、決策結(jié)果具有與風(fēng)險(xiǎn)程度相適宜的透明度及可解釋性;對(duì)于受制于技術(shù)水平限制而無(wú)法提高透明度與可解釋性的算法,則應(yīng)當(dāng)在保留應(yīng)用范圍與應(yīng)用程度的同時(shí),增加人工介入的比例,避免因技術(shù)不成熟造成的損害。

  征信業(yè)務(wù)涉及個(gè)人信息保護(hù)、數(shù)據(jù)安全、金融穩(wěn)定等多個(gè)方面,本身就具有跨部門(mén)監(jiān)管的特點(diǎn)。疊加生成式人工智能跨領(lǐng)域、跨行業(yè)應(yīng)用的發(fā)展趨勢(shì),構(gòu)建跨部門(mén)協(xié)同治理機(jī)制更為緊迫,有利于整合資源,提高治理舉措的一致性和執(zhí)行力度。

  我國(guó)曾于2023年制定發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,在治理主體上涉及國(guó)家發(fā)展改革委、科技部、工信部等在內(nèi)的七個(gè)部門(mén)。然而,由于尚處于制度建設(shè)剛起步的早期階段,目前就如何有效協(xié)同治理生成式人工智能而言,仍然存在因部門(mén)之間責(zé)任劃分不清晰而“趨利避害”的隱患:對(duì)于存在困難的“壞事”可能相互扯皮,對(duì)于存在利益的“好事”則爭(zhēng)相管理,最終致使治理無(wú)法形成合力。

  征信領(lǐng)域應(yīng)用生成式人工智能牽涉的部門(mén)更多,更容易出現(xiàn)“參與者越多,責(zé)任歸屬時(shí)越容易相互推諉”的“多手問(wèn)題”(the problem of many hands)。為此,首先應(yīng)當(dāng)充分考慮到生成式人工智能在征信業(yè)務(wù)中的輔助性地位,建立以征信業(yè)監(jiān)督管理部門(mén)為核心機(jī)構(gòu)的統(tǒng)籌協(xié)調(diào)治理機(jī)制,明確各個(gè)部門(mén)的職責(zé)劃分。

  其次,要建立橫跨多部門(mén)的信息共享機(jī)制,通過(guò)透明、實(shí)時(shí)的信息交互,消除“職責(zé)孤島”與“信息孤島”,避免多頭管理。再次,要加強(qiáng)建設(shè)問(wèn)責(zé)機(jī)制和交流機(jī)制,一方面通過(guò)有力的問(wèn)責(zé)避免“多手問(wèn)題”出現(xiàn),對(duì)于未能按照職責(zé)劃分造成管理混亂或矛盾的責(zé)任方給予相應(yīng)處罰,同時(shí)鼓勵(lì)積極主動(dòng)配合,對(duì)協(xié)同成效顯著的部門(mén)予以獎(jiǎng)勵(lì);另一方面則通過(guò)增進(jìn)各部門(mén)間對(duì)彼此職能、業(yè)務(wù)特點(diǎn)和需求的理解,提升協(xié)同工作的默契度。

  現(xiàn)代社會(huì),私營(yíng)部門(mén)不再只是被治理的對(duì)象,也是治理的主體。從規(guī)制理論來(lái)看,由私營(yíng)部門(mén)參與的多元合作機(jī)制是對(duì)政府治理短板的必要補(bǔ)缺。

  第一,開(kāi)發(fā)者的參與能夠在專(zhuān)業(yè)知識(shí)上起到補(bǔ)足作用。政府部門(mén)雖然具備法規(guī)制定和執(zhí)行的能力,但往往在專(zhuān)業(yè)深度上對(duì)新興技術(shù)了解不足。相反,開(kāi)發(fā)者作為生成式人工智能研發(fā)和應(yīng)用的主要力量,具有豐富的技術(shù)經(jīng)驗(yàn)和知識(shí)儲(chǔ)備。與開(kāi)發(fā)者合作,能夠有效補(bǔ)足政府部門(mén)在專(zhuān)業(yè)知識(shí)與技術(shù)上的短板,幫助政府準(zhǔn)確理解技術(shù)現(xiàn)狀與發(fā)展趨勢(shì),進(jìn)而把握潛在風(fēng)險(xiǎn),精準(zhǔn)施策。

  第二,征信機(jī)構(gòu)的參與能夠在標(biāo)準(zhǔn)共建上起到引導(dǎo)作用。征信領(lǐng)域應(yīng)用生成式人工智能必須在各個(gè)環(huán)節(jié)都確保合法合規(guī)、安全可控。相對(duì)來(lái)說(shuō),長(zhǎng)期從事征信業(yè)務(wù)的征信機(jī)構(gòu)在業(yè)務(wù)合規(guī)、風(fēng)險(xiǎn)管控方面具有不可替代的經(jīng)驗(yàn)價(jià)值,能夠識(shí)別、評(píng)估各個(gè)環(huán)節(jié)的大致風(fēng)險(xiǎn),并熟悉相應(yīng)的防范措施。征信機(jī)構(gòu)的共同參與,有助于引導(dǎo)政府部門(mén)制定的行業(yè)標(biāo)準(zhǔn)與行為準(zhǔn)則更契合征信業(yè)的實(shí)際情況。

  第三,征信對(duì)象的參與能夠在風(fēng)險(xiǎn)識(shí)別上起到增強(qiáng)作用。無(wú)論現(xiàn)代治理體系多么完善、投入的力量如何之多,總是會(huì)缺乏一種必不可少、能夠有效發(fā)現(xiàn)并且阻止?jié)撛陲L(fēng)險(xiǎn)的信息資源,而掌握這些信息資源的人,往往是風(fēng)險(xiǎn)損害的當(dāng)事人。

  在應(yīng)用生成式人工智能的情況下,無(wú)論是征信機(jī)構(gòu)在業(yè)務(wù)流程中設(shè)置便捷的異議機(jī)制,還是政府部門(mén)設(shè)置投訴舉報(bào)機(jī)制,都能夠借助征信對(duì)象的力量及時(shí)捕捉異常信息,起到增強(qiáng)風(fēng)險(xiǎn)識(shí)別能力的作用。

  監(jiān)管立場(chǎng)上,對(duì)征信領(lǐng)域應(yīng)用生成式人工智能進(jìn)行規(guī)制應(yīng)當(dāng)包容審慎,堅(jiān)持原則性與靈活性相統(tǒng)一,既不能以靈活性損害原則性,又不能以原則性束縛靈活性。

  所謂原則性,就是對(duì)風(fēng)險(xiǎn)的審慎,需要以集中式治理的監(jiān)管理念,守住不發(fā)生系統(tǒng)性風(fēng)險(xiǎn)的底線。盡管集中式監(jiān)管存在適應(yīng)性差、缺乏必要彈性等弊端,可能會(huì)給技術(shù)創(chuàng)新帶來(lái)限制,影響行業(yè)的進(jìn)步與發(fā)展,但其以治理結(jié)果為中心,強(qiáng)調(diào)秩序性、前瞻性防范與集中性、整體性治理的模式,能夠通過(guò)集中監(jiān)管權(quán)力來(lái)有效解決風(fēng)險(xiǎn)應(yīng)對(duì)不集中、不及時(shí)等問(wèn)題。

  特別是對(duì)于征信這樣涉及個(gè)人敏感信息處理的重點(diǎn)領(lǐng)域來(lái)說(shuō),數(shù)據(jù)一旦被泄露或者非法使用都將造成不可挽回的后果,落實(shí)立法層面所確立的三項(xiàng)原則離不開(kāi)強(qiáng)有力的監(jiān)管措施。強(qiáng)化征信領(lǐng)域應(yīng)用生成式人工智能在重點(diǎn)風(fēng)險(xiǎn)方面的監(jiān)督及管理,有助于實(shí)現(xiàn)對(duì)風(fēng)險(xiǎn)隱患強(qiáng)有力的整治,從而維護(hù)公共利益。

  具體體現(xiàn)為有必要但有限度的監(jiān)管:一是制定征信領(lǐng)域應(yīng)用生成式人工智能的行業(yè)標(biāo)準(zhǔn),通過(guò)設(shè)置準(zhǔn)入門(mén)檻,確保生成式人工智能具備最低程度的技術(shù)成熟度;二是在征信業(yè)監(jiān)督管理部門(mén)中,設(shè)立獨(dú)立的人工智能監(jiān)管機(jī)構(gòu),對(duì)生成式人工智能在征信領(lǐng)域的應(yīng)用情況以及相應(yīng)算法進(jìn)行備案,在必要時(shí)予以審查;三是設(shè)立問(wèn)責(zé)制,通過(guò)要求定期公開(kāi)使用情況、報(bào)告風(fēng)控措施等方式,確保征信機(jī)構(gòu)實(shí)現(xiàn)盡力合規(guī)。

  所謂靈活性,則是對(duì)創(chuàng)新的包容,需要以回應(yīng)式治理的監(jiān)管理念,應(yīng)對(duì)技術(shù)發(fā)展帶來(lái)的不確定性?;貞?yīng)式治理通過(guò)建立一種靈活適應(yīng)、包容可持續(xù)的協(xié)調(diào)機(jī)制,鼓勵(lì)企業(yè)主動(dòng)承擔(dān)安全責(zé)任,避免政府過(guò)度干預(yù)而對(duì)發(fā)展造成阻礙,能夠充分顧及技術(shù)與業(yè)務(wù)模式的創(chuàng)新需要,克服集中式治理的僵化與不適應(yīng)。

  對(duì)于征信這樣業(yè)態(tài)與模式多樣的領(lǐng)域來(lái)說(shuō),包容、互信、開(kāi)放的監(jiān)管環(huán)境有利于進(jìn)一步推動(dòng)行業(yè)整體對(duì)數(shù)據(jù)資源的高效利用和良性開(kāi)發(fā)。具體體現(xiàn)為有限度且靈活的監(jiān)管,在監(jiān)管機(jī)構(gòu)適度發(fā)揮他律性作用的同時(shí),注重引導(dǎo)被監(jiān)管對(duì)象發(fā)揮自律性作用,兼顧預(yù)防與應(yīng)對(duì)。

  就預(yù)防方面而言,在滿足行業(yè)最低標(biāo)準(zhǔn)的前提下,監(jiān)管機(jī)構(gòu)應(yīng)當(dāng)鼓勵(lì)征信機(jī)構(gòu)根據(jù)自身經(jīng)營(yíng)范圍、業(yè)務(wù)規(guī)模等自身實(shí)際情況,詳盡梳理應(yīng)用生成式人工智能在信息收集、處理、輸出、存儲(chǔ)等各環(huán)節(jié)所面臨的可能安全威脅,在此基礎(chǔ)上建立周全的風(fēng)險(xiǎn)評(píng)估分析機(jī)制;就應(yīng)對(duì)方面而言,監(jiān)管機(jī)構(gòu)應(yīng)當(dāng)積極推動(dòng)征信行業(yè)內(nèi)、征信機(jī)構(gòu)與人工智能開(kāi)發(fā)者之間建立快速、協(xié)調(diào)的應(yīng)急響應(yīng)機(jī)制,有效控制業(yè)已發(fā)生的危害后果,最小化安全事件所波及的影響范圍。

  我國(guó)《生成式人工智能服務(wù)管理暫行辦法》第3條初步規(guī)定了分類(lèi)分級(jí)的監(jiān)管方式。不過(guò),這一規(guī)定十分模糊和籠統(tǒng),僅僅以“原則”的形式進(jìn)行闡述,尚待進(jìn)一步細(xì)化。由于不同領(lǐng)域、不同場(chǎng)景、不同環(huán)節(jié)應(yīng)用生成式人工智能所面臨的風(fēng)險(xiǎn)在類(lèi)型與程度上均不可一概而論,因此有必要就如何在征信領(lǐng)域應(yīng)用生成式人工智能作分類(lèi)分級(jí)監(jiān)管進(jìn)行專(zhuān)門(mén)討論。需要注意的是,盡管分類(lèi)與分級(jí)具有一定的交叉和相似之處,但仍然應(yīng)當(dāng)視作兩個(gè)不一樣的具體標(biāo)準(zhǔn),對(duì)其予以明確界分。

  首先,應(yīng)當(dāng)根據(jù)生成式人工智能的應(yīng)用場(chǎng)景進(jìn)行分類(lèi),其目的在于通過(guò)明確行為性質(zhì)、劃定處理邊界來(lái)定位風(fēng)險(xiǎn)的歸屬,為進(jìn)一步的分級(jí)奠定基礎(chǔ)。根據(jù)應(yīng)用場(chǎng)景的不同,可以將征信領(lǐng)域?qū)ι墒饺斯ぶ悄艿膽?yīng)用類(lèi)型區(qū)分為三大類(lèi):

  一是基礎(chǔ)模型類(lèi),即對(duì)個(gè)人或企業(yè)信用歷史、信用數(shù)據(jù)等原始信息進(jìn)行處理和學(xué)習(xí)的底層模型,以及在此基礎(chǔ)上構(gòu)建的信用評(píng)分系統(tǒng);二是決策輔助類(lèi),例如在信貸審批流程中,生成針對(duì)特定申請(qǐng)人的綜合信用報(bào)告或者提供貸款決策建議的人工智能系統(tǒng);三是風(fēng)險(xiǎn)監(jiān)測(cè)類(lèi),如通過(guò)實(shí)時(shí)監(jiān)測(cè)交易行為,從而識(shí)別潛在欺詐或異常交易模式、預(yù)測(cè)違約風(fēng)險(xiǎn)的系統(tǒng)。

  其次,應(yīng)當(dāng)根據(jù)信息的重要性進(jìn)行分級(jí),其目的在于確定數(shù)據(jù)泄露或不當(dāng)使用的可能風(fēng)險(xiǎn)程度,以此決定實(shí)施管理措施的力度和類(lèi)別,實(shí)現(xiàn)差異化安全防護(hù)。

  具體可以參考?xì)W盟《人工智能法案》中的風(fēng)險(xiǎn)定級(jí),根據(jù)風(fēng)險(xiǎn)程度將監(jiān)管從低到高分為三個(gè)等級(jí):

  一級(jí)監(jiān)管主要針對(duì)非敏感、非核心征信服務(wù)等較低程度的風(fēng)險(xiǎn),如表格材料或客戶(hù)服務(wù)等文本的自動(dòng)化生成,這類(lèi)應(yīng)用風(fēng)險(xiǎn)相對(duì)較低,因而監(jiān)管重點(diǎn)在于保證內(nèi)容準(zhǔn)確性;二級(jí)監(jiān)管主要針對(duì)中等程度的風(fēng)險(xiǎn),相對(duì)重要但不直接影響信用評(píng)估的決策環(huán)節(jié),例如部分自動(dòng)化評(píng)估結(jié)果、信用報(bào)告的生成,監(jiān)管重點(diǎn)在于確保數(shù)據(jù)源合法合規(guī)、生成過(guò)程可追溯、結(jié)果公正無(wú)誤;三級(jí)監(jiān)管主要針對(duì)較高程度的風(fēng)險(xiǎn),通常會(huì)直接影響信用評(píng)估決策的核心服務(wù),例如高度自動(dòng)化的信用評(píng)級(jí)和授信決策模型,監(jiān)管層面需要對(duì)其模型算法、公平性和歧視性審查、數(shù)據(jù)安全和隱私保護(hù)等方面提出更為嚴(yán)格的審核要求。

  在具體措施上,可采用包括但不限于信息披露、算法備案、算法審查和監(jiān)管沙箱等不同力度的工具,實(shí)現(xiàn)覆蓋事前、事中、事后全流程的分類(lèi)分級(jí)監(jiān)管。舉例來(lái)說(shuō),對(duì)于風(fēng)險(xiǎn)程度較低的一級(jí)監(jiān)管,可能要求征信機(jī)構(gòu)就生成式人工智能的應(yīng)用作出說(shuō)明或標(biāo)識(shí)即可;對(duì)于風(fēng)險(xiǎn)程度較高的三級(jí)監(jiān)管,則可能需要在正式投入使用前在監(jiān)管沙箱受控的環(huán)境下進(jìn)行測(cè)試。還應(yīng)當(dāng)認(rèn)識(shí)到的是,由于風(fēng)險(xiǎn)本身的動(dòng)態(tài)變化,分類(lèi)分級(jí)的監(jiān)管方式自身同樣需要被不斷地審查與調(diào)整,使之具備能夠動(dòng)態(tài)適應(yīng)實(shí)時(shí)變化的“可延展性”,實(shí)現(xiàn)生成式人工智能應(yīng)用監(jiān)督管理體系的持續(xù)優(yōu)化和迭代升級(jí)。

  2024年3月,聯(lián)合國(guó)大會(huì)通過(guò)了全球首個(gè)關(guān)于監(jiān)管人工智能的決議《抓住安全、可靠和值得信賴(lài)的人工智能系統(tǒng)帶來(lái)的機(jī)遇,促進(jìn)可持續(xù)發(fā)展》。

  決議表示,各國(guó)認(rèn)識(shí)到“人工智能系統(tǒng)的設(shè)計(jì)、開(kāi)發(fā)、部署和使用速度加快,技術(shù)變革日新月異,對(duì)加快實(shí)現(xiàn)可持續(xù)發(fā)展目標(biāo)具有潛在影響”,為此呼吁抓住“安全、可靠和值得信賴(lài)的”人工智能系統(tǒng)帶來(lái)的機(jī)遇,讓人工智能給人類(lèi)帶來(lái)“惠益”,并以此促進(jìn)可持續(xù)發(fā)展。

  毫無(wú)疑問(wèn),生成式人工智能憑借強(qiáng)大的學(xué)習(xí)能力、關(guān)聯(lián)分析能力與結(jié)果輸出能力,為征信領(lǐng)域未來(lái)的高質(zhì)量發(fā)展注入了革故鼎新的技術(shù)潛力,但也對(duì)現(xiàn)有的規(guī)制體系造成了不小沖擊。為此,亟須通過(guò)切實(shí)有效的治理對(duì)策,對(duì)創(chuàng)新發(fā)展與風(fēng)險(xiǎn)防范的現(xiàn)實(shí)需要作出同步回應(yīng)。

  不可否認(rèn)的是,從長(zhǎng)遠(yuǎn)來(lái)看,無(wú)論是征信行業(yè)本身,還是生成式人工智能自身的安全風(fēng)險(xiǎn)治理,都不能安于現(xiàn)狀,在推動(dòng)業(yè)務(wù)創(chuàng)新、技術(shù)發(fā)展的同時(shí)更需要推動(dòng)治理模式的創(chuàng)新與發(fā)展。概言之,征信領(lǐng)域?qū)ι墒饺斯ぶ悄艿膽?yīng)用需聚焦于數(shù)據(jù)安全、模型公平性、業(yè)務(wù)連續(xù)性以及征信對(duì)象的合法權(quán)益,在確保技術(shù)進(jìn)步的同時(shí)有效防范系統(tǒng)性風(fēng)險(xiǎn)。唯有如此,才能夠與時(shí)俱進(jìn)地引導(dǎo)創(chuàng)新向善、科技向善,共同推動(dòng)行業(yè)整體的健康有序發(fā)展。