qq怎么免費查被檔訪客 qq怎么免費查被檔訪客信息
2023-02-11
更新時間:2023-02-01 10:34:53作者:佚名
“最近開始玩ChatGPT,的確很驚人。”一位生物學領域的科學家近日在社交媒體上感慨。在他展示的向ChatGPT發(fā)起的挑戰(zhàn)中,提出的問題包括如何運營公司、如何管理孩子、為何生育率下降,再到中國的文化和政策問題,ChatGPT大多能應對流暢。
這款當今最火爆的AI語言模型,由美國人工智能實驗室OpenAI于去年11月底發(fā)布,并迅速火遍全球。人們長期苦于那些智能語音助手的傻瓜回答,這次ChatGPT卻出乎意料的聰明:它可以用來創(chuàng)作故事、撰寫新聞、回答客觀問題、聊天、寫代碼和查找代碼問題等。外媒評論稱,ChatGPT會成為科技行業(yè)的下一個顛覆者。
ChatGPT是自然語言處理(NLP)中一項引人矚目的進展,它閱覽了互聯(lián)網(wǎng)上幾乎所有數(shù)據(jù),并在超級復雜的模型之下進行深度學習。因為語言是人類智慧、思維方式的核心體現(xiàn),因此,自然語言處理被稱作“AI皇冠上的明珠”。而ChatGPT的出色表現(xiàn),被認為可能是邁向通用型AI的一種可行路徑——作為一種底層模型,它再次驗證了深度學習中“規(guī)模”的意義。
1月12日,在美國一場活動上,曾擔任微軟董事長的比爾·蓋茨表示,他不認為Web3有那么重要,也不認為元宇宙本身是革命性的,但是人工智能卻是頗具顛覆性的。當被問及如何看待ChatGPT時,他說,“這讓我能一窺未來。整個平臺的方法和創(chuàng)新速度都令我印象深刻。”
文本生成和對話領域,基本要被“洗一遍”
GPT英文全稱為Generative Pre-trained Transformer(生成式預訓練轉換器),是一種基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓練的文本生成深度學習模型。ChatGPT“脫胎”于OpenAI在2020年發(fā)布的GPT-3,后者是目前訓練參數(shù)量最大的AI模型,當時發(fā)布后便引發(fā)了廣泛的關注。
此次發(fā)布的ChatGPT實際上是GPT-3.5。在3.0的基礎上,ChatGPT在應用層進行了強化訓練,提高了對話質量。
王帥是AI領域從業(yè)20多年的一位工程師,目前在英偉達工作。他對《中國新聞周刊》介紹說,首先,OpenAI引入了人類監(jiān)督員,對AI的回答進行打分,使得它在眾多可能的回答中選擇那些更加符合人類預期的答案;其次,新版本還引入了多輪對話,尤其是在涉及一些有關步驟的問答當中,讓這個模型的語言前后邏輯更加明晰、有因果關聯(lián)。
創(chuàng)新工場人工智能工程院執(zhí)行院長王詠剛告訴《中國新聞周刊》,人類處理數(shù)學公式時,如果有幾十個參數(shù),就已非常之復雜了。然而,GPT-3卻相當于是一個包含1750億個參數(shù)的公式,來處理所有互聯(lián)網(wǎng)上的數(shù)據(jù),以理解人類當今的文本和語言。因此,他評價,OpenAI的超大規(guī)模預訓練模型是深度學習誕生以來,AI在行為表現(xiàn)上最接近人類智慧的一個時期。OpenAI還在不斷提升AI訓練的規(guī)模和復雜度。
硅谷科技公司PerceptIn創(chuàng)始人劉少山在接受《中國新聞周刊》采訪時表示,過去,AI已經(jīng)能在一些特定任務上做得很出色,比如,在圖像識別、語音理解方面,計算機正逐漸取代人的眼睛和耳朵行使的功能,但一直無法實現(xiàn)通用。所謂通用人工智能,即與實現(xiàn)特定任務的AI相對應。
2020年,在一場業(yè)內會議上,美國康奈爾大學計算機教授巴特·塞爾曼談到,通用人工智能可能還需要20年以上才可以實現(xiàn),“不過如果我們在未來五到十年能在真正的自然語言理解上獲得突破,使得AI可以去閱讀圖書、從互聯(lián)網(wǎng)獲得知識,那么這個進程可能會被大大加速”。
ChatGPT有更好的語言理解能力,意味著它可以更像一個通用的任務助理,能夠和不同行業(yè)結合,衍生出很多應用的場景。劉少山認為,它可以說是打開了通用人工智能的一扇大門。
王詠剛指出,可以說,互聯(lián)網(wǎng)的每一個環(huán)節(jié),只要涉及文本生成和對話的,未來基本上要被ChatGPT“洗一遍”。也就是說,都需要結合這一語言工具,才能得到一個接近于自然人類語言對話的效果。
以自動駕駛為例,劉少山說,目前的自動駕駛還比較“傻”,因為汽車的智能系統(tǒng)與人的交互是比較機械的,比如說,前面有一輛車,按照規(guī)則,它有可能會無法正確判斷什么時候該繞行。而ChatGPT等人工智能的迭代,未來可能會讓機器更接近人的思維模式,學習人的駕駛行為,帶領自動駕駛進入“2.0時代”。
近來,據(jù)美國硅谷的科技媒體報道,微軟已經(jīng)討論在Word、PowerPoint、Outlook和其他應用程序中加入ChatGPT。1月17日舉行的達沃斯世界經(jīng)濟論壇《華爾街日報》座談會上,微軟CEO薩提亞·納德拉表示,微軟將迅速采取行動,力爭讓OpenAI的工具快速商業(yè)化。
人類世界有許多重復性的、程式化的語言文字工作,不需要復雜的邏輯思考或決策判斷。ChatGPT幫助人們更流暢、更快速地書寫這些段落的潛力,可能會成為微軟這些應用程序的“殺手锏”。比如,在人們需要請假時,只要打出“寫一封請病假的郵件”幾個字,Outlook就能把措辭正式的請假申請寫好。
在“ChatGPT+”的世界,搜索引擎領域的變化,尤為引發(fā)關注。目前的搜索引擎基于關鍵字響應,根據(jù)搜索結果進一步篩選信息然后整合。一些人相信,基于對話的搜索,可能會徹底改造甚至取代當前的信息檢索方式。有美國科技媒體1月初的報道指出,微軟正在考慮將ChatGPT整合到其搜索引擎“必應”當中。
20多年來,谷歌搜索引擎一直是全球互聯(lián)網(wǎng)的主要門戶網(wǎng)站之一。隨著ChatGPT等產品的出現(xiàn),《紐約時報》在2022年12月21日的文章中指出,谷歌的主要搜索業(yè)務可能首次面臨嚴重威脅。谷歌的管理層已發(fā)布表示情況緊急的“紅色代碼”,著手應對。一些人擔心,一場可能顛覆整個AI行業(yè)的巨大技術變革正在到來。
谷歌率先提出關于深度學習模型最核心的算法,但是應用上卻是OpenAI這樣的機構推得更快。對谷歌較為熟悉的王詠剛指出,一個很重要的原因是,像谷歌這樣的大公司,作為互聯(lián)網(wǎng)的信息提供商,其實對于新技術的商業(yè)化使用是很謹慎的。比如,如果ChatGPT在知識性的回答上有95%的正確率,那5%的錯誤率能夠接受嗎?
在2021年5月的谷歌網(wǎng)絡開發(fā)者年會上,谷歌就展示了其最新的人工智能系統(tǒng)LaMDA。谷歌表示,LaMDA可以使回答更加“合情合理”,讓對話更自然地進行,而且這些回復都不是預先設定的。但目前,谷歌仍不愿向公眾發(fā)布LaMDA。谷歌表示,部分原因在于,LaMDA存在較高的誤差,且容易對用戶造成傷害。
“現(xiàn)在還很難判斷。”在英偉達工作的王帥說,如果ChatGPT能夠取代當前的搜索引擎,谷歌也不會坐以待斃,因為在大規(guī)模語言模型上,它與微軟之間并不存在技術上有與沒有的區(qū)別;其次,技術只是一方面的原因,這背后還有運營成本、效率、商業(yè)模式等方面的考慮。
事實上,《紐約時報》也指出,谷歌可能不愿意部署這項新技術來替代在線搜索,因為它不適合投放數(shù)字廣告——如果ChatGPT能夠完美響應搜索,人們就沒有動機點擊額外的鏈接,而廣告在2021年為谷歌掙了2080億美元,占谷歌母公司Alphabet總收入的81%。
更先進的GPT-4出來以后,可能會帶來更為驚艷的成果。幾個月前,王詠剛與OpenAI的兩位聯(lián)合創(chuàng)始人見了個面,談論了GPT-4的一些技術問題。盡管尚沒有準確的數(shù)據(jù),但他分析說,GPT-3模型參數(shù)量級是1750億規(guī)模的,而GPT-4的參數(shù)可能將比它高出幾個量級。他表示,那是令人嘆為觀止的訓練量,“想象一下,如果說GPT-3相當于昆蟲大小的腦容量,那么 GPT-4可能會達到哺乳動物的腦容量”。
不過,ChatGPT還遠不完美。因為這類人工智能對話機器人是通過消化互聯(lián)網(wǎng)上公開的大量數(shù)據(jù)來成長的,所以,它們的知識結構中同時有事實和虛構的部分,傳遞的信息可能也會存在偏見、甚至仇恨言論等。前述生物學家表示,ChatGPT“不禁逗”,一些問題回答錯誤或者無法解答。
《麻省理工科技評論》在去年11月末尖銳地指出,所有的大規(guī)模語言模型都在輸出“nonsense(愚蠢的話)”,ChatGPT看起來解決了一些問題,但遠不是一個徹底的終結。OpenAI的科學家約翰·舒爾曼也承認,還有很多事情要做,“我們在這個問題上取得了一些進展,但還遠未解決”。
“從水下100米到馬里亞納海溝”
長期以來,在AI領域,存在著一場曠日持久的爭論:基于深度學習和超強算力的大模型訓練,是否是抵達通用人工智能的最終道路?在這方面,OpenAI無疑是一個堅定的押注者。
2018年6月,OpenAI發(fā)表論文《通過生成式預訓練加強語言理解》,首次介紹了自己的語言模型GPT-1。它在深度學習模型Transformer架構上,使用了內含幾十億個文本文檔的超大規(guī)模語言資料庫進行訓練,參數(shù)量為1.17億。2019年2月,升級版GPT-2發(fā)布,模型參數(shù)達到15億,且訓練模型的數(shù)據(jù)庫也更大;2020年,規(guī)模大百倍的GPT-3誕生。
創(chuàng)新工場人工智能工程院執(zhí)行院長王詠剛打了個比方,如果說傳統(tǒng)的機器學習或人工智能是在水下一米的深處探索,那么深度學習的出現(xiàn)將人們帶到了一百米的深水區(qū);而在Transformer、GPT等架構后,從業(yè)者們直接能抵達深度超過萬米的馬里亞納海溝。
過去5年中,大規(guī)模預訓練語言模型受到業(yè)內越來越多的重視。王帥指出,過去依靠人工標注和精巧設計的訓練方法,數(shù)據(jù)量大幅增加以后,表現(xiàn)并不好;相反,大家逐漸意識到,不斷擴大模型規(guī)模、不斷用更多數(shù)據(jù)去訓練模型,是提高算法能力非常有效的一個手段。
“目前看起來,這種模型太有用了。而且從ChatGPT的結果來看,超出了我們的預料。”王帥說,可以認為這種不斷增加規(guī)模的大模型已經(jīng)是領域的一種范式,可能人工智能領域未來有很多地方都可以用類似方法推進。
“今天,全世界的人工智能研究有很多方向,也產生了大量的成果。但是嚴格來說,所有這些最令人驚艷的結果, 90%以上是基于Transformer迭代來的這些大模型技術得到的。”王詠剛也指出,目前幾乎所有的AI任務和項目,都會和大語言模型技術有關聯(lián),它已經(jīng)代表了AI界最主流的科研和技術迭代方向。
2022年7月,Alphabet旗下的DeepMind公司與歐洲生物信息研究所的團隊合作公布了生物學領域的一項重大飛躍。他們利用人工智能系統(tǒng)AlphaFold預測出超過100萬個物種的2.14億個蛋白質結構,幾乎涵蓋了地球上所有已知蛋白質。許多研究人員表示,這一系列突破將加速新藥開發(fā),并為基礎科學帶來全新革命。而Alphafold同樣是基于Transformer結構的深度學習模型。
OpenAI是一家非營利性的研究機構,于2015年成立,由特斯拉創(chuàng)始人馬斯克、創(chuàng)業(yè)孵化器Y Combinator總裁山姆·奧特曼、PayPal聯(lián)合創(chuàng)始人彼得·蒂爾等硅谷大亨們創(chuàng)建,其愿景是實現(xiàn)安全的通用人工智能,并向公眾開放。
多位受訪業(yè)內人士指出,大規(guī)模語言模型并不是OpenAI的“獨門技術”;再加上人才和資金的雄厚,谷歌、微軟、百度等AI領域的巨頭公司并不是無法復制下一個ChatGPT。實際上,ChatGPT誕生之前,硅谷巨頭們都意識到了大語言模型的重要性,比如,DeepMind也發(fā)布了人工智能聊天機器人Sparrow,F(xiàn)acebook母公司Meta也有自己的同類產品。
然而,不同的是,這些年來,OpenAI一直將資源集中在這個方向上。在微軟等巨頭公司的資金和技術支持下,它不斷將這種方法論推向極致。“規(guī)模至上的這種理念和方法論是OpenAI特別推崇的,相對來說,其他公司或者團隊沒有他們這么堅信。”王詠剛說。
不過,王詠剛說,在ChatGPT出圈之后,從業(yè)者們的心態(tài)是比較微妙的。一方面,業(yè)界可能會越來越重視這條路徑,投入更多資源;另一方面,大家又希望它不是AI領域唯一核心的方法,還能夠有空間探索更多的可能性。
“僅僅靠數(shù)據(jù)驅動的路徑,雖然能讓AI在一些領域達到接近或者超過人類的水平,例如人臉識別,但在另一些領域,比如自動駕駛,我們需要的是接近100%的安全性。”康奈爾大學計算機教授巴特·塞爾曼就認為,這最后的10%、5%的提升,可能不是深度學習本身能夠解決的,需要不同的思路。
對AI的理解落后于其發(fā)展速度
2022年9月,一位年輕人用Al繪畫工具Midjourney生成的作品《太空歌劇院》,在美國科羅拉多州博覽會的美術比賽中獲得大獎,獲獎類別是“數(shù)字藝術/數(shù)字修飾照片”組第一名。不過,這引發(fā)了一場人文爭議和反AI繪畫的浪潮。
有網(wǎng)友表示,我們眼睜睜地見證了藝術的死亡,“如果連藝術工作都無法避免被機器所吞沒,那么高技能的工種也將面臨被淘汰的危機。到時候,我們又能剩下什么呢?”
劉少山談到,AI科學家們最初的猜想是,AI大發(fā)展后,一些藍領崗位、重復性的工作會首先被取代。然而,ChatGPT、AlphaFold等工具出來后,人們發(fā)現(xiàn),最先感受到AI沖擊的,反而是創(chuàng)造性的工作,而送餐這一類涉及勞動力的工作卻沒能被取代。他解釋說,在機器人、自動駕駛等領域,機械與智能是兩個基本的模塊?,F(xiàn)實進展來看,機械部分有很多物理上的限制,很多技術目前尚未突破;得益于深度學習等模型的發(fā)展,智能部分反而突破更快。
這些涉及創(chuàng)造力、知識探索、信息獲取的行業(yè),是人文領域的核心,是人類最擔心被機器化的部分。一直以來,AI在這些領域的重大突破都伴隨著廣泛的倫理爭議。
世界知名的復雜性科學研究中心、美國圣塔菲研究所教授梅勒妮·米切爾近日在接受媒體采訪時就談到,過于盲目采用這些技術,將我們的交流和創(chuàng)意自動化,可能會導致人類失去對機器的控制,“機器人會給機器人寫電子郵件,而機器人會回復其他機器人”。米切爾說,“我們作為人的特質從我們的信息中被卷走了。”
1月5日,紐約市教育部門表示,紐約公立學校的所有設備和網(wǎng)絡上將禁止使用ChatGPT。紐約市教育部門發(fā)言人詹娜·萊爾指出,這一決定是基于“該工具可能會對學生學習產生負面影響,以及對其內容的安全性和準確性的擔憂”。
人們普遍表示擔心,該工具可能會鼓勵學生抄襲。詹娜·萊爾說,雖然ChatGPT能夠為問題提供快速而簡單的答案,但它沒有培養(yǎng)批判性思維和解決問題的能力,而這些能力對學術和終身成功來說是至關重要的。
2022年12月27日,美國西北大學的一個團隊在預印本論文bioRxiv上發(fā)表了一篇文章。這項研究中,研究者讓ChatGPT學習發(fā)表在《柳葉刀》《美國醫(yī)學會雜志》等頂刊上的文章,并撰寫50篇醫(yī)學研究摘要,然后讓抄襲檢測器、人工智能輸出檢測器和期刊審稿人將這些摘要與原始摘要比較,找出ChatGPT編造的摘要。
結果發(fā)現(xiàn),ChatGPT生成的摘要全部順利通過了抄襲檢測器,人工智能輸出器找出了66%的生成摘要,期刊審稿人僅正確識別了68%的生成摘要和86%的真實摘要。研究者們表示,使用大型語言模型進行科學寫作的道德和可接受邊界需要被進一步明確。
《自然》雜志最新發(fā)布的規(guī)定稱,任何大型語言模型工具都不能成為論文作者;如在論文創(chuàng)作中用過相關工具,作者應在“方法”或“致謝”或適當部分明確說明。
王帥認為,用AI寫論文這樣的事情,技術上一定會發(fā)生的,而且知識獲取的門檻越來越低,“我覺得發(fā)展方向上更多不一定是禁止它,而是說教育評估的標準和理念需要發(fā)生變化。相比那些大段輸出的、能夠在機器的幫助下寫得更好的文字,思考的質量、深度和研究的原創(chuàng)性等將會越來越重要”。
這就好像一項新的技術,比如說汽車、飛機被發(fā)明了,不可能說不用它們,關鍵是如何使用、如何規(guī)范。從這一意義上來說,王帥表示,以ChatGPT為代表的生成式人工智能的出現(xiàn),圍繞它及其應用相關的各方面都沒有跟上,包括法律、教育、社會、倫理等。實際上,就算是圈內人,也沒有完全理解AI領域正在發(fā)生的事情意味著什么。
2022年12月,《大西洋月刊》在《大學論文已死》的文章中警示,沒有人為人工智能將如何改變學術界做好準備。“如今AI模型遠比我們想象的更強大,而我們用于探索它們的技術卻非常幼稚。”OpenAI實驗室的人工智能政策專家杰克·克拉克在近來的一篇文章中寫道。
劉少山也認為,目前,業(yè)內沒有能力去處理AI帶來的可能的社會影響,因為人們對它的了解還很有限,這是最大的問題。比如說,盡管美國部分學校禁用ChatGPT生成的內容,但現(xiàn)在卻沒有手段檢測和區(qū)分機器與人類生產的內容,也就更加難說防御機制,“因為GPT這些技術太新了,監(jiān)管部門也沒辦法去理解。我認為,在幾年時間內,網(wǎng)絡上會有很多虛假信息的出現(xiàn)”。
每一次AI出現(xiàn)一個新東西,大眾總是會覺得某種巨大的變化將要來臨,并且往往伴隨著機器代替人工的擔憂。然而,王詠剛說,人們一方面太容易夸大AI短期內取得的成果和影響;另一方面,卻又忽視AI正在發(fā)生的、真正可能帶來不可逆的長期變化。
在他看來,短期來說,ChatGPT等人工智能的應用仍舊是工具式的,它會提高效率、替代一部分工作,但真正值得擔心的是,隨著計算機能夠處理的數(shù)據(jù)結構、模型、算法越來越膨脹和復雜,里面可能有大量的“黑盒子”運算,人們未必能預測其最終輸出的結果。會不會在某個時間點,人工智能會跨越某個關鍵的節(jié)點,進入到一個我們尚未看到的世界,沒有人可以預測。
?。ㄎ闹型鯉洖榛?,實習生李金津對本文亦有貢獻。)
記者:彭丹妮