1000部做爰免费视频,婷婷蜜桃国产精品一区小说,家庭乱欲免费阅读全文,2020亚洲熟女在线观看,樱井莉亚全集bt种子,男男体育生乱yin高h肉汁,高辣文h书包网,17岁中国高清免费观看完整版,免费观看已满十八岁的电视剧动漫

中國人權(quán)領(lǐng)域唯一專業(yè)網(wǎng)站

劉天舒 | ChatGPT:是天使的禮物還是魔鬼的誘惑?

2023-09-14 14:45:20來源:仁之言作者:劉天舒
字號:默認(rèn)超大| 打印|

  ChatGPT的橫空出世使以往只能發(fā)生在科幻小說中的場景照進現(xiàn)實,人工智能系統(tǒng)已經(jīng)能夠使用自然語言與人類流暢地對話。雖然在此之前,手機語音助手、家庭生活助手等人機交互應(yīng)用程序已經(jīng)屢見不鮮,但彼時的人工智能對話水平還停留在不斷重復(fù)回應(yīng)著“對不起,我聽不懂你在說什么”等固定句式的階段。而ChatGPT自問世起便刷新了人們對人工智能的認(rèn)知,其詳細(xì)的回應(yīng)、連貫的邏輯和清晰的表達令人耳目一新。

  一

  事實上,包括ChatGPT在內(nèi)的大型語言模型現(xiàn)階段已經(jīng)具備強大的自然語言處理能力,不僅能夠根據(jù)用戶輸入的指令生成多樣化、個性化的回復(fù),還能理解上下文、連續(xù)參與多輪連貫對話,甚至在一定程度上流露出情感態(tài)度,不再受限于單一或刻板的說辭,為人們提供了更加仿真、流暢和自然的對話體驗。

  大型語言模型在文本分析、語言表達和信息生成等方面表現(xiàn)出一定的優(yōu)勢,可以對各種領(lǐng)域的自然語言輸入作出前所未有的響應(yīng)。從理想狀態(tài)來看,它可以在多種情景下為人的發(fā)展賦能。第一,大型語言模型在本質(zhì)上是一種生成式人工模型,可以被用于完成文本生成、自動摘要、自動翻譯等機械性任務(wù),使人們從某些枯燥乏味或缺乏技術(shù)含量的重復(fù)性工作中解脫,減輕工作負(fù)擔(dān),提升生活質(zhì)量,或?qū)⒏嗑Ψ旁诟哂袆?chuàng)造性和創(chuàng)新性的工作上,提高勞動價值與勞動效率。第二,大型語言模型就用戶的提問或輸入進行合理解答,是一種有效的知識傳播途徑和教育手段,從而促進人的教育權(quán)利的發(fā)展。第三,生成式人工智能可以在創(chuàng)意寫作、藝術(shù)創(chuàng)作等方面提供輔助,為創(chuàng)作者提供靈感、生成創(chuàng)意,促使更多優(yōu)秀文學(xué)藝術(shù)作品的誕生,在滿足創(chuàng)作者自我價值實現(xiàn)的同時,也豐富社會公眾的精神世界。

  二

  然而,盡管大型語言模型的自動生成技術(shù)給人們的生活帶來了巨大的潛力和機會,但如果不加以適當(dāng)?shù)目刂坪凸芾?,將可能引發(fā)一系列難以預(yù)測的社會問題,危及人類自身的發(fā)展權(quán)利。

  其一,ChatGPT等大型語言模型容易導(dǎo)致偏見和歧視,威脅某些群體尤其是特定群體的平等權(quán)益。ChatGPT通過在大規(guī)模文本數(shù)據(jù)上進行預(yù)訓(xùn)練來學(xué)習(xí)文本的語義和語法規(guī)則,從而生成高質(zhì)量的自然語言文本。一方面,預(yù)訓(xùn)練的過程需要人類人工智能訓(xùn)練師的參與,而人工智能訓(xùn)練師難以避免將主觀判斷植入數(shù)據(jù)選擇、參數(shù)設(shè)定、策略調(diào)整等環(huán)節(jié);另一方面,大量的文本數(shù)據(jù)輸入是機器學(xué)習(xí)的前提,如果輸入的訓(xùn)練數(shù)據(jù)本身帶有偏見,得出的語言模型自然會形成帶有偏見的結(jié)果。從現(xiàn)實條件來看,訓(xùn)練數(shù)據(jù)更容易從互聯(lián)網(wǎng)資源中獲得,而供給這些數(shù)據(jù)的用戶較為特定,更多地是年輕人、發(fā)達國家國民、英語使用者、白人、男性以及富人等資源掌控群體,其代表性難以考證,可能導(dǎo)致ChatGPT生成答案的不公。

  其二,ChatGPT等大型語言模型在數(shù)據(jù)訓(xùn)練、人機交互的過程中可能侵犯用戶的隱私權(quán),尤其是與個人數(shù)據(jù)、敏感個人信息相關(guān)的重要權(quán)益。首先,模型在預(yù)訓(xùn)練時采集個人數(shù)據(jù)信息的渠道未必合法合規(guī),其可能通過第三方購買或使用爬取技術(shù)等方式訪問、處理和存儲用戶的敏感個人信息,在此過程中數(shù)據(jù)主體的知情權(quán)和授權(quán)范圍難以落實。其次,在人機交互對話的過程中,如果用戶提供了敏感個人信息,生成式語言模型可能會在后續(xù)向他人生成的文本中包含這些信息,甚至將這些信息儲存至模型訓(xùn)練數(shù)據(jù)集中進行深度學(xué)習(xí),導(dǎo)致隱私泄露、信息不當(dāng)使用等問題。此外,大型語言模型還可能在用戶不知情的情況下根據(jù)其輸入的內(nèi)容對用戶進行畫像,分析并推斷出用戶的身份、興趣、位置和情感等個人信息,用于追蹤與定位個人,增加其隱私泄露的風(fēng)險。

  其三,ChatGPT等大型語言模型可能導(dǎo)致失業(yè)風(fēng)險升高,侵犯勞動者的勞動與就業(yè)權(quán)利,并加劇社會利益的分化。一方面,在客服、文員、數(shù)據(jù)整理等涉及重復(fù)性文本生成任務(wù)的行業(yè),大型語言模型的應(yīng)用可能使得未能掌握核心技術(shù)的底層勞動者的就業(yè)資格受到威脅。另一方面,大型語言模型的開發(fā)和訓(xùn)練通常需要耗費大量的能源,硬件資源和計算資源的使用離不開大量的電能供給,數(shù)據(jù)的收集、存儲和處理也涉及能源的消耗,增加了在環(huán)境資源可持續(xù)發(fā)展方面的壓力。在此過程中,大眾群體共同消化了資源與環(huán)境的負(fù)外部性,卻難以參與利益的分享與利潤的分配,這將加劇社會財富的集中,甚至造成壟斷,擠占底層人民的生存空間。

  其四,ChatGPT等大型語言模型可能使人的獨立思考能力和認(rèn)知能力退化,并逐漸被算法模型奴役。帕斯卡爾說過,人是一根能思想的葦草,人類全部的尊嚴(yán)就在于有思想。當(dāng)人們把思考與寫作外包給機器,將導(dǎo)致表達能力下降,批判性與創(chuàng)造性思維減弱,思維深度受限,信息篩選與辨別能力弱化,最終可能使得人類思維的多樣性減少,情感表達日益淡漠與缺失,這或許將意味著人在逐漸喪失作為人類的主體地位。

  概言之,大型語言模型雖然充滿誘惑,但如潘多拉魔盒般隱藏著不可忽視的人權(quán)隱患,需要綜合考慮技術(shù)、倫理、政策和社會等多個方面,審慎對待。如何在法律與社會的監(jiān)管下確保技術(shù)的應(yīng)用不侵犯人權(quán)和社會價值,目前仍是一個亟待解決的棘手問題。

 ?。ü└澹簭V東工業(yè)大學(xué)數(shù)字人權(quán)研究中心 作者:劉天舒,廣東工業(yè)大學(xué)法學(xué)院博士后)

打印|
返回頂部