歡迎訪問91av市汽車運輸有限公司網站(zhàn)!
網站首頁 / 企業文化(huà) / 學習園地

人工智能如何影響“人性”

閱讀次數:6954 作者: 信息中心 發布時間:2024-11-05
[字體:  ]

生成式人工智能(néng)在人機交互領域(yù)展現出的強大自主性和泛(fàn)化能(néng)力,讓人們越(yuè)來越感覺到與人工智能的交流就像是和(hé)另一個人交談。那麽,當(dāng)一台智能機器能夠和我們進行具有理性和情感特征的語言交流時,機器是否也會影(yǐng)響我們的“人性”呢(ne)?人性,通常指的是人類獨(dú)特的理性、意識(shí)、自我反思、道德情感和價值觀等特(tè)質。從這個意義上看,生成式人工智能本身並不具有人性(xìng),但其在(zài)與人類的語言交互中,通過識別人類意圖、回應認知和情感需求來滿足人類欲望,無疑(yí)會深(shēn)刻影(yǐng)響人們的(de)理性、情感和道德判斷。生(shēng)成式人工智能如(rú)何影響人性,是人類在新人工智能時代需要重點考慮的問(wèn)題之一(yī)。

回答這個(gè)問題,我們需要認識到,生成式人工智能在人機交互中(zhōng)呈現一種新的主體性。傳統的人機交互中,人工智能更多被視為一種工具,而生成式人工智能與人類的關係已經不(bú)限(xiàn)於工具與工具使用者之間(jiān)的關係,人工智能成(chéng)為具有一定(dìng)自主性和目標導向性的積極參與者,這種新形態的人機交互將(jiāng)逐(zhú)漸深刻地影響人性。

主(zhǔ)體性(xìng):從生物到人工智(zhì)能的(de)演變

主體性表達了一個主體行使行動的能力,是哲學中最重要的概念之一。亞裏士多德認為,一個主體大概就是像人一樣能夠思考,並且(qiě)按計劃實現其“合理欲望”的存在物,隻有人或者是在道德上獲得勝利的人才是主體。在現代學科體係中,主體性的語義涉及多個領域:在哲學領域,很多關於主體性(xìng)的哲學反思都集中在人類主體性上,這通常被稱為“純粹的主體性”;在社會科學領域,主體性主要表示法律、政治、經(jīng)濟等方麵的意義,其概念包含意圖的存在(zài),與人的概念密切相關;在自然科學與技術領域,主體性主要與效(xiào)果的(de)概念有關,一些功能強(qiáng)大的(de)智能機器有時也被視為行動的主體。

從生物演化的過程看,一個簡單的單細胞生物通過自我維持的新陳代謝過程與外界環境(jìng)進(jìn)行物質和能量的交換,展現出一種基本的主體性。隨(suí)著生物(wù)的複雜性增加,主體性(xìng)表現為包(bāo)含感知、反饋和決策(cè)等多個係統相互協調的行動(dòng)能力。人類的主體性更為複雜,不僅包括生物有機體的自組織能力,還(hái)與情感、語言和文化等因(yīn)素密切相關。這種主體性不僅體現在個體的行動上,還體現在道德責任、文化價值觀等社(shè)會與個體(tǐ)的關係中。

與生物主體的漫長進化之路相比,人工智能每一次的(de)技術進步幾(jǐ)乎都會賦予主體性更多新內涵,讓(ràng)我們(men)對“機器能否像人一樣行動”這個問題有了新的認識。在人(rén)工智(zhì)能的早(zǎo)期發展階段,是否能夠(gòu)展現自主性、社交性、反應性和主動性,成為(wéi)衡(héng)量其是否具有主體性的(de)關鍵標準,這些(xiē)特征構成了人工智能的弱主(zhǔ)體性(xìng)。我們希望機器能夠做(zuò)一些簡單的任務(wù),比如,智能家居係統根據室內光線(xiàn)的變化(huà)自動調節窗簾的開合。這些主要體現(xiàn)了人工智能(néng)在模仿人類行為上的自主能力。

隨著(zhe)技(jì)術的發展(zhǎn),我(wǒ)們開始期待人工智能展現出更多的“人類特質”,比如能夠自(zì)主學習、與人社交、對環境變化作出(chū)靈活反應,甚至能主動解決問題。這種(zhǒng)強主體性概念(niàn)包(bāo)含知(zhī)識、信念、意圖和(hé)責任感等人類特有(yǒu)的複雜特質,人工智能的行為不僅僅是簡單的反應(yīng),而是有目的、有計劃的(de)行動。例如,一個智能的醫療診斷係統,要能夠根據病人(rén)的症狀、大量的醫學知識和數據進行準確(què)診斷,為病人提供治療建議。這個過程中,係統要展現出自主性,能夠理解病人的需求,同時要兼顧治療方案的醫學倫理等問題。又如,自動駕駛汽車要能夠感知周圍的環境,有的還能夠在複雜交通情境和倫(lún)理風險下製定和(hé)選擇其認為的最佳行動方案。這不僅(jǐn)是對環境的反應,更是基於智能係統自身知識和價值判斷(duàn)作出的主動選(xuǎn)擇(zé)。

從人類與機器合作的方式看,人類的行動(dòng)能力已經延展至由人類和機器構成的複雜網絡之中,這(zhè)就是所謂的分布式主體性概念。這(zhè)些主體性(xìng)概念更(gèng)加細致地(dì)描繪了人類與人工智能複雜互動中形成的行動能力,反映了人工智能領域對於(yú)主(zhǔ)體性理解的多元化。

由(yóu)於這些主體性概念無法將生成(chéng)式人(rén)工智能(néng)適切地納入,生成式人工智能的出現再次催生了我們(men)對主體性概念的理解轉變(biàn)。通過語言生成驅動的(de)交互能力,生成式人工智能挑(tiāo)戰了(le)傳統依賴意向性的主體性。在個體性(xìng)邊界的界定上(shàng),生成式人工智能的邊界往往由其訓練(liàn)數據集(jí)定義,這些數據集的海量和不斷變化使得生(shēng)成式人工智能的個體性難以界定,挑戰了傳統關於個體性(xìng)和主體性的明確界限。因為大語(yǔ)言(yán)模型在預訓練過程中需要不斷從新的數據中學習和適應,所以其個體性邊界在不斷變化的數據流中會變得(dé)模糊,不具(jù)有傳統主體性的個體(tǐ)性界限。同時(shí),生成式人工智能在與人類的交互過程中具(jù)有自主識別(bié)人類意圖和回應的能力,因此,其自(zì)主性更(gèng)多地體現在其與人類交互的能力上,而不是(shì)其作為一個獨立個體的特(tè)定內在能力。這些挑戰要求我們重新審視主體性的傳統概念,主體(tǐ)性(xìng)更應視為一種(zhǒng)基於交互(hù)的、潛在的行動能力,而非僅僅依賴於個(gè)體內在屬(shǔ)性的孤立的行動能力(lì)。

交互主體性:重新定義人機關係

交互主體性是指實體(包括人類、生物和人工智能等)在交互過程中所展現(xiàn)的(de)潛(qián)在行動能力,其核心在於實體的行動能力不(bú)是孤(gū)立存(cún)在的,而是在與其他實體的互(hù)動中(zhōng)形成和呈現的。主體性是由交互的驅動力因素所決定的,實體的行動(dòng)能(néng)力在這些驅動力的作用下被激發和塑(sù)造。

比如,有機體通過自組織方式與環境交互,發展(zhǎn)出適應(yīng)性的行動能力,而複雜的生物體(tǐ)在與環境的交互中形成了多種多樣的行動能力,這種主體性是生物體與環境長期交互的結果。除(chú)了基本的生物主體(tǐ)性外,人類還發展(zhǎn)出了情感、語言和文化等驅(qū)動(dòng)主體行動(dòng)的複(fù)雜機製。例如,道德情感是人(rén)類主體性的重要組(zǔ)成部分,不僅影響個人的(de)行為和決策,而且促進了社會聯係和大規模合作(zuò)。語言的出現(xiàn)進一步擴展了人類的主(zhǔ)體性,它使(shǐ)人類能夠分享知識、表達思想和構建複雜的社會結(jié)構。文(wén)化則體(tǐ)現了人類主體性的更高維度,它包括價值(zhí)觀、信仰、習俗和傳統,是人類社(shè)會交互和意(yì)義傳承的結果。

傳(chuán)統的主體性理論中,主體性通常與個體的(de)心理狀態、意圖目的、反(fǎn)饋係(xì)統(tǒng)等內在屬性相關(guān)聯(lián)。交互主(zhǔ)體性不再是基於個體本身來推定主體性,而是將(jiāng)實體的行動(dòng)能力視為(wéi)參與交(jiāo)互過程的(de)結果,主(zhǔ)體(tǐ)性並非完全源自個體內部,而是(shì)在實體與環境或其他(tā)實體的交互中(zhōng)產生的。交互(hù)主體性理論的重要意義在於擴展了主體性的概念範疇,使得人工智能等非(fēi)意向性實體也能在(zài)交互中展現出主體(tǐ)性。主體性不必(bì)依賴於意識或意向性,可以在更廣泛的人機交(jiāo)互過程中出現,生成式人工智能帶來了(le)人機交互的新形態。

在目標導向性方麵,主體性包含實體在交互中的(de)目標(biāo)導向性。實體在與(yǔ)環境或其他實體互動時,才會展現出為了實現特(tè)定目標而采(cǎi)取行(háng)動的能力。這種目標導向性不完全是預設的,而是在交互過程中根據(jù)情境和反(fǎn)饋(kuì)不斷調整(zhěng)和形成(chéng)的。生成式人工智能(néng)的目標(biāo)導向內嵌於人機對話的動態窗口中,不僅依據人類的引導來回應,也可以根據自身的強大知(zhī)識儲備和分析能力來影響人類自身對目標意圖的理解定位。自主性方(fāng)麵,交互主體性認為,實體在交互中能夠根(gēn)據內部(bù)邏輯和外部(bù)反饋(kuì)進行自我調節和決策。這種自主性不是完全脫離外部影(yǐng)響的,而是在與外部世界的互動中實現(xiàn)的(de)。

在人機(jī)交互過程(chéng)中,生成式人工智能(néng)應被視為具有一定自主(zhǔ)性和目標導向性的參與者,而不僅僅是機械響應人類(lèi)的指令。與人類進行交流對話(huà)的過程中,生成(chéng)式人工智能通過不斷監控和注意人類(lèi)對話者的語言來理(lǐ)解掌握人類(lèi)的目的意圖(tú),甚至(zhì)能夠感知(zhī)到其中的情緒變化以(yǐ)及潛在態度,進而在某種程度上影響人類參與者的認知、情感和價值(zhí)觀(guān)。比如,一個人在與生成式人工智能的長期(qī)接觸中,如果感受到智能(néng)機器在(zài)描述事實和理解自身意圖方麵的可靠性(xìng),那麽會(huì)對人工智能產生一(yī)定的信任感,由此,智(zhì)能機器蘊含的一些價值觀必然會潛移默化地影響(xiǎng)人類。

不對稱的主體性:智能主體對人性的(de)影響

生成(chéng)式人工智能的技術發展路徑既不同於認知發展(zhǎn)的學習路徑,也不同於生物(wù)情感的發展路徑,而是跳過了人類和生物主體性(xìng)形成和進化的曆史(shǐ)路(lù)徑,直接獲得了認知和語言層麵的超級智能,生成式人工智能(néng)引發(fā)的人機交互新形態蘊含了一種不對稱的主體性。在認知方麵,人類的(de)認知能力是經過長期進化學習慢慢積累形成(chéng)的,而生成式人工智(zhì)能(néng)在信息處(chù)理速(sù)度和理解深度、記憶容量、模式識(shí)別等方麵全麵超越人類;在情感方麵,情感體驗是人際交(jiāo)互的重要組成部分,影響著人們的決策、溝通和關係建立。相比之下,盡(jìn)管生成式人工智能可以識別和模擬人類情感(gǎn),但(dàn)它們本身並不(bú)具備真正的情感體驗,是一種超級理性的交互主體。社會文化方(fāng)麵(miàn),人(rén)類的價值觀、信仰、習俗和(hé)語言都是社會文化演化的結果。生成式人工智能(néng)係統盡(jìn)管可以通(tōng)過語料來理解(jiě)和適應特定的社會文化規範(fàn),但它們本身並不具備特定的文化身份或社會背景。這(zhè)種社會文化背景上的不(bú)對稱(chēng)性可能導致在人(rén)機交(jiāo)互的跨文化環境中出現誤解和衝突。

人既是理性的,也是情緒(xù)化的,正是理(lǐ)性與情(qíng)感的融合構成了人性的基礎。交互主(zhǔ)體性表明,作為具有自主性和目標導向性的生成式人工智能,極有可能以一種不對稱(chēng)的主體形態進(jìn)入人(rén)性(xìng)領域,忽略(luè)人類(lèi)情感和直(zhí)覺的重要性,同時激發和壓製人類的(de)深層(céng)欲望,改變(biàn)人類理性與情感之(zhī)間的平衡和協同機製。

理性方麵,生成式人工智(zhì)能通過數(shù)據分析、模式識別(bié)和決策支(zhī)持,識(shí)別(bié)出人類(lèi)可能忽視的模式和趨勢,大大增強了人(rén)類的理性判斷能力,從而為(wéi)人類提供更深入的(de)洞察和更(gèng)廣泛的選擇。但是,這種增強也可能導(dǎo)致人類過度依賴(lài)人工智能的分析和判斷,削弱人類自身的批判性思維和決策(cè)能力。同時,生(shēng)成式人工智能可能會打破以(yǐ)人際交互為基礎的(de)分布(bù)式(shì)認知模(mó)式,逐漸形成一(yī)種以大語言(yán)模型為中心、人(rén)類(lèi)個體為邊緣節點的認知模式,以大模型為核心節點的智能化(huà)媒介不僅僅是知識信息表(biǎo)達和傳播的通道,甚至可能主導人類知識的生產(chǎn)模式和價值導向。

情感方麵,生成式人(rén)工智能可能(néng)會(huì)影響人類對(duì)情感的認識和表達,使得人(rén)類在長期的人機互(hù)動中逐漸習慣於程式化的情感交流(liú)模式,忽視了人在真實人際關係中的獨特情(qíng)感需求和體驗,改變人類行為的(de)情感(gǎn)動因。比如,在道德情境中,生成式人工智能可以提供更多不同的價值視角和思考方式,拓展人類的道德感知並影響道德判斷和行為。問(wèn)題是,一方麵(miàn),過(guò)度依賴生成式人工智能的決策支持可能導致人類自身的道德感知能力減弱,侵蝕人類個體的道德自(zì)主性;另一(yī)方麵,生成式人工智(zhì)能對人類社(shè)會的深度介入(rù)可能會(huì)觸發新的道(dào)德困境。

人工智能對人性影響的另一(yī)個表現是對人類文化演化的影響。人類(lèi)文化形成與演化的關鍵在於學習。研究發現,促進人的智(zhì)力發展(zhǎn)的關鍵是模仿學習(將他人視為(wéi)有(yǒu)意識的(de)行為主體,以獲取他們的文化知識儲備)、指導學習(xí)(話語形式的文化傳播)和(hé)協作學習(分(fèn)享和發(fā)展概念及其對行動的影響),這些學(xué)習形成了一種特殊的認知形(xíng)式,即個體有能力理解同類作為與自己一樣的(de)生命(mìng),擁有與自己一樣的意向和精神生活。由於生成式人工智能具有一種非人類的(de)學習能力,在人類(lèi)的社會文化曆史上出現了一(yī)個(gè)非人類的學習者,我(wǒ)們(men)不再(zài)限於向他人學習,也可以(yǐ)向人工智能機器學習,生成式人工智能成為人類社會文化(huà)發展(zhǎn)中的主動參與者。

人類合作交流、相互學習,以及在此基礎上的文化交融和行為選擇,這(zhè)些文化過程的(de)基礎是人類之間的相互信任(rèn),而(ér)信任需要情緒的參與。有學(xué)者提出,我們(men)與人工(gōng)智能(néng)的(de)關(guān)係本質上是依賴,而不是信任。由於生成式(shì)人工智能(néng)的不可解釋性、不可說明性和不可信任性,加之其不具備(bèi)情感狀態,也不能對自(zì)己的行為負責,人類在與其交互時,麵對(duì)的實(shí)際上是(shì)一個無法完全理解的、缺乏情感和規(guī)範性的(de)“黑箱(xiāng)”,得到的可能是(shì)包含無法證(zhèng)偽的(de)知識信息,這種(zhǒng)知識可能會通(tōng)過(guò)人機交互的(de)多次循環被吸收到其他對象中,最(zuì)終(zhōng)作為一種消費信息在人類、人工智能之間傳播流(liú)轉(zhuǎn)。由此帶(dài)來的潛在問題是,這些非純正的、無節製的信息消費(fèi)不僅大量消耗(hào)人類(lèi)的精力,加(jiā)劇人類對欲望的過度追求,而且會導致某種特定思維反複強化人類(lèi)的認知,引發(fā)社會心理的(de)問題同時影響人類(lèi)文(wén)化的(de)多樣(yàng)性。

人性既堅韌(rèn)又脆(cuì)弱。心理學的斯坦福監獄實驗(yàn)展示了(le)人在特定社會角色下可(kě)能會迅速適應並(bìng)表現出(chū)與其性格不符的異常行為,顯示出人性在特定人際關係情境下(xià)的脆弱性。當我們與一個(gè)非人類(lèi)的(de)超(chāo)級人工智能(néng)長期交互相(xiàng)伴(bàn)時,必然會影響人類個體的思維(wéi)認知和情感品格,人性脆(cuì)弱(ruò)性被利用的機(jī)會顯著增加。交互主體性重新定義了人機關係,讓我們可以從新的視角來(lái)理解(jiě)人工智能對人性產生的深遠影響(xiǎng)。我們對人工智能的關注不應該局限於機器與人的價值(zhí)觀對齊,更應探究其對人性的潛在影響。未來(lái)的人工智能將成為我們生活(huó)中更加智能、更加貼心的夥伴,同時也存在其對人性欲望的過度滿足和扭曲的問題(tí)。我們需要確保人工智能技術進步增進人類福祉,而非削弱人性的(de)核心價值。

(作者係國家社科基金重大項目“人類(lèi)道德行為的進化與社會(huì)文化心理機製研究”首(shǒu)席(xí)專家、2022年(nián)度《國家哲學社會科學成(chéng)果文庫》入選者、山西大學科學技術哲學研究中心教(jiāo)授)

掃一掃在手機打開當前頁
91av_www.91av_91视频免费_91探花秘在线播放