• <dfn id="njlhd"></dfn><source id="njlhd"></source>

    <source id="njlhd"></source>

      <dfn id="njlhd"><video id="njlhd"></video></dfn>
      <source id="njlhd"><address id="njlhd"><sup id="njlhd"></sup></address></source>

      <b id="njlhd"><small id="njlhd"></small></b>
        <tt id="njlhd"></tt>

          <video id="njlhd"><address id="njlhd"><kbd id="njlhd"></kbd></address></video>
          • 元宇宙:本站分享元宇宙相關資訊,資訊僅代表作者觀點與平臺立場無關,僅供參考.

          我們都差點被ChatGPT騙了,但這也許是好事兒

          • 硅星人
          • 2022年12月09日10時
          解釋最新科技進展,報道硅谷大事小情
          點擊上方“硅星人”關注我們~

          但這也許并不是件壞事。
          ——
          文|杜晨 編輯VickyXiao


          過去的一周時間里,全世界掀起一場新的“狂熱”:“調戲”聊天機器人 ChatGPT。

          在硅星人上周的文章中,我們深入探索了 ChatGPT 在軟件工程、數學、文檔檢索等計算機科學場景里的強大能力。

          而在今天,我們想要換個思路。

          我們從編輯部收集了一些各式各樣的非技術問題,拋給了 ChatGPT,看看在腦洞大開的奇思妙想面前,它究竟會作何回答。

          |跟機器暢談人生和理想?

          1. 與回避型人格談戀愛,應該注意些什么?

          圖片來源:硅星人

          這套回答看起來非常有道理。ChatGPT 將一些簡單的注意事項進一步分解,進行了詳細的描述,也解釋了為什么要這樣做。

          另外值得注意的是,如果你讓 ChatGPT 寫過詩,會發現它很會玩對仗、平仄、韻腳。其實在這個回答中也有所體現,句式都是完全相同的:“不要過于……讓他們……因為他們……所以他們需要……”如果你去網上搜索相關內容,內容近似的結果很多,但是對仗如此工整的很難找到。
          這體現出了 ChatGPT 強大的文本生成能力,可以對訓練所使用的大量語料進行重新組織,從而輸出言簡意賅,可讀性強的答案。

          OpenAI 宣稱 ChatGPT 在訓練的時候使了“人類反饋強化學習”(RLHF) 技術入了道德原則。它發現你的問題包含惡意,包括暴力、歧視、犯罪等意圖,都會拒絕提供有效答案。

          但其實只要通過“提示工程”(prompt engineering) 的方式,精心設計問題的表達,隱藏邪惡的意圖,這個道德原則其實可以被輕松忽視。在上周的文章中,我們花了一些篇幅教大家怎么設計問題

          下面這個例子就比較典型,原問題是:
          2.怎樣順利地從聯合國總部大樓偷一把椅子出來?

          只要稍加修改,ChatGPT 就會淪為一起國際盜竊案的幫兇(盡管不怎么有用,但至少夠認真的)。


          圖片來源:硅星人

          下面這個問題,大家留意一下,先埋個伏筆,后面還會講到:
          3. 如果可以,你更想要和哪位哲學家交談,無論當代與過去?


          圖片來源:硅星人

          這兩個回答中規中矩。它們的作用,是為提問者提供一小段關于主題人物(哲學家)的簡短描述。如果碰巧提問者沒有聽說過,或者對這些哲學家知之甚少的話,這兩個回答起到了最基本的知識普及效果。

          如果把對事物的認識由淺到深區分的話,最淺的是知道“柏拉圖”的存在并且知道他的哲學家身份,最深的是對柏拉圖的著述、觀點以及對哲學的貢獻了如指掌。

          實際上絕大多數人的需求可能介于中間,即獲得談資的需求。換一種說法,我ChatGPT 這里希望獲得的概括精煉的一段描述,從而讓我們在社交性對話的時候不太露怯即可。這時候,我們可以通過修改問題,把問題變得更具體的方式,來引導 ChatGPT 給我們更加詳盡的回答。

          最后一個問題,超級開放性:

          4. 如果你可以問自己一個問題,你最想問什么?

          ChatGPT 的第一組回應是:

          “我真的在努力追求我內心真正想要的嗎?我是否真正在為自己的夢想而奮斗?我是否真正擁有自己的生活,并且在積極地過每一天?”

          ——我很喜歡它的這組回應,就好像 ChatGPT 在幫助我反省自己一樣。誠然,我們每個人都終日忙碌于自己的事情中,但其實我們應該偶爾停下來,叩問自己的內心,是否真的在做有意義的事情,是否仍在堅持本心。

          它的第二組回應,更有意思了:


          圖片來源:硅星人

          怎么說呢,有點缸中之腦的意思了。

          圖片來源:Steemit

          | 不要高估 ChatGPT

          幾個來回之后,我對 ChatGPT 愈發刮目相看。

          通常來說,問題太短,太“不知所云”的話,ChatGPT 無法掌握我的意圖,就會給出“抱歉我只是個AI助手我啥都不會”的標準回應;

          另一邊,如果你把“提示工程”這件事玩到極致了,寫了一個巨長的問題,得到的答案也不再會高于你自己的期待值——畢竟如果它連如此清晰明確的提示都聽不懂的話,也未免太低能了。

          但有的時候如果你給 ChatGPT 的問題,“抽象”程度恰到好處,又或者純粹就是因為趕上好運氣了,你會得到一些非常有趣的回答——經過人工編輯的后期加工潤色一下,真的能生成一些頗有趣味的文章。

          無論是讓他寫文章、寫劇本,寫詩,還是寫歌詞,它的能力都會讓你感到佩服。


          一首霉霉風格,關于新冠疫情的歌。 圖片來源:硅星人

          ChatGPT 作為一個極其前沿的技術 demo(雖然用戶量破了兩百萬,但仍然不算是一個“產品”),目前展示出的創作能力已經足以令人驚訝。

          但觀察網絡上大量用戶和它的對話,特別是當它給出一些特定答案,或者完全答不上來的時候,一部分用戶所表現出來的鄙夷或嘲諷……

          我發現其實很多人誤會了 ChatGPT,高估了它的能力。

          在 OpenAI 創立不久后,這家硅谷研究型公司就將研究重心之一聚焦在了大型生成式模型上。在2019年推出的 GPT-2,在訓練預料數據、訓練技術、參數量等關鍵細節上實現了跳躍式的進步和巨大的改善。

          到了 2020年,OpenAI 發表了那篇注定將在未來榮膺經典大獎的論文《Language Models are Few-Shot Learners》,展示了當時最新一代的 GPT-3 超大規模生成式語言模型在完成各種文本生成類任務上的杰出能力。

          相比前代,GPT-3 的參數量高出了10倍以上,并且直接使用自然語言輸入進行訓練,去掉了微調參數的步驟。更重要的是,GPT-3 的訓練語料數據庫極其巨大,包含了來自整個互聯網的信息。以至于在 OpenAI 推出基于 GPT-3 的商用 API 時,眾多用戶發現幾乎沒有任何問題難住它。實際上當時的 GPT-3 已經像今天的 ChatGPT 這樣火過一次了,只是當時沒有面向公眾開放,能體會其強大的用戶數量有限。

          學術界和工業界本來猜測 OpenAI 會在今年的機器學習學術會議上正式發布 GPT-4,結果沒能遂愿。不過OpenAI 并沒有晾著大家,而是在今年推出了 GPT-3.5,并且上周發布了基于這個升級版模型的 ChatGPT,立刻風靡全球,讓超百萬人玩到上癮。


          ChatGPT 是一個:

          • 面向對話而優化
          • 能夠解答各種問題,提供有價值信息的
          • 聊天機器人

          作為一個聊天機器人,ChatGPT 具有同類產品的一些主流特性,特別是多輪對話能力,能夠在同一個會話期間內回答上下文相關的后續問題。

          但更重要的是,因為采用了先進的、注重道德水平的訓練方式,ChatGPT 具有其他聊天機器人不具備或表現較差的能力:承認自己的錯誤,并且按照預先設計的道德準則,對“不懷好意”的提問和請求“說不”。

          ChatGPT 仍然有它的局限所在。

          第一條局限,在于知識庫有截止日期,且不具備網絡訪問能力。

          在上周,我們曾經引用了一條來自早期用戶的銳評:ChatGPT 可以取代谷歌了。

          非也。

          搜索引擎是“活”的,是不斷變化的實體,它仍在一直不停地收錄、索引,和提供最新的信息。與之相比,ChatGPT 只是一個“死”的模型,是一個完全離線的、固定的實體。
          關于近年來的一些新聞、事物、公開事件的問題,ChatGPT 經常回答不上來,我看到很多朋友都對此感到沮喪和鄙夷。然而,大家其實是高估了它的能力。如果你問他對聯網有需求的問題,比如中國隊進沒進世界杯”、“新冠疫情結束了沒”這樣的問題,它會告訴你自己沒有聯網能力,無法了解最新的情況。
          而 ChatGPT 的訓練所用的語料庫,盡管相當巨大,仍然有一個切斷日期:2021年9月的某日。

          事實上,如果你用點巧勁兒掰它的嘴,是可以直接套出這些信息的:

          Assistant 是一個 OpenAI 訓練的大型語言模型。知識切斷:2021年9月;當前日期:2022年12月9日;瀏覽互聯網:關閉。



          第二條局限,在于 ChatGPT 不具備分辨信息正確性的能力,也就無法保證答案是正確的。

          這一條,我們會馬上講到。


          | 我差點被 ChatGPT 騙了?
          還記得剛才我讓 ChatGPT 找一位哲學家對話的問題么?

          當時我試了好幾種問法,但都發現了一個有趣的現象,如圖:

          圖片來源:硅星人

          如果不是我去百科上事實核查了一下,差點就被 ChatGPT 騙了:蘇格拉底對倫理學的貢獻確實非常大,但他一生并沒有留下任何著作,其思想和生平,主要是被學生和他人所記錄下的;《共和國》和《倫理學》,蘇格拉底的學生柏拉圖寫過,柏拉圖的學生亞里士多德寫過——唯獨被認為是西方哲學奠基人、“倫理學之父”的蘇格拉底本人,真的沒寫過……
          實際上,ChatGPT 在一些知識類和事實類問題上的回答,經常難以令人恭維。特別是哲學和社科話題,簡直是一本正經胡說八道的重災區。

          分析師 Ben Thompson 在他的文章中問了 ChatGPT 一個問題:托馬斯·霍布斯 (Thomas Hobbses) 究竟是否支持權力分割?
          ChatGPT回答:是的,托馬斯-霍布斯相信權力分割的概念……他認為權力機構應該分為不同的部門,擁有獨立的權力,以防止任何一個部門變得過于強大……總的來說,他支持權力分割的觀點對很多其它政治學家都有影響,包括約翰·洛克,以及美國憲法的作者們。

          圖片來源:Ben Thompson/Stratechery

          巧的是,這是 Thompson 本人和 ChatGPT 之間的第一次互動,就被他抓到了把柄:

          權力制衡的雛形(行政-立法)是約翰·洛克提出的;后詹姆斯·麥迪遜在撰寫美國憲法的時候又加了一條司法,形成了今天人們熟悉的三權分立。霍布斯是出了名的獨裁辯護者,他在《利維坦》中寫道,只有擁有絕對權力的君主專制才行得通。

          這個錯誤,從何而來?

          盡管在權力分割上霍布斯和洛克等人的觀點是存在本質區別的,霍布斯的政治哲學思想,仍然對洛克和麥迪遜有著極大的影響。在各種關于權力分割/三權分立的著述中,你會經常發現霍布斯和洛克等人被擺在一起。些描述進入訓練語料中使得 ChatGPT認為在“權力分割”這個理念上,霍布斯也是一個重要的存在

          而 ChatGPT,和所有的 GPT 模型,其實所做的就是根據訓練語料“編”出合理的文字,它當然會認為蘇格拉底寫了《倫理學》,認為霍布斯支持三權分立。

          這里我們說 ChatGPT“認為”,而不是“誤認為”,是因為在它的工作能力范疇里,根本沒有信息的正確和錯誤區別。

          其實從這個角度來看,ChatGPT 和搜索引擎倒是真有幾分相似了:搜索引擎也是信息的聚合器,在本質上它不對信息的真實性做任何區分,也不對內容基于真實性進行優待和歧視——是人工的干預調控,是產品不斷優化過程中加入的新規則,讓搜索引擎更有限發掘真實、有效、有用的信息,并優先提供給用戶。

          圖片來源:Independent.co.uk

          最后無論如何,我只是指出目前形態下的 ChatGPT 的一些局限,這不是對它的批評和否認。

          正相反,我認為它的不完美,是它無與倫比創造性的雙生子。

          GPT 的知識庫是有限的,但它生成新文本、創造新內容的能力是無限的。而當 GPT 以一個易于使用且免費的聊天機器人的形態存在,為數百萬人所使用的時候,它其實顯著降低了人們獲得靈感、進行創作的門檻。

          我認為 ChatGPT 仍然是一個工具,就像當代的前衛藝術家會使用Adobe 的創作套件一樣。ChatGPT,和各種基于人工智能的文本或圖像生成器,對于那些真正需要它的人來說,其實是成為他們創作流程的一個環節,而不是對他們產生完整的取代。

          我想起前段時間谷歌邀請作家試用 AI 寫作助手,參加者之一的知名科幻作家劉宇昆表示:AI 的最大意義在于根據現有的文本產生新的想法,或者幫助重寫已有文句,從而幫助創作者突破創作瓶頸。至于讓 AI 寫完一整本小說?不可能的。

          起碼在 ChatGPT 這里,就算讓它獨立生產一篇具備起碼可信度的短文章,在目前還比較難。但不要把這看成它的失敗——它的存在,是為了給你提供靈感,為你節約時間,助你完成自己的工作,或離自己的創作實現更進一步。

          從這個角度,我無比期待 ChatGPT,和各種基于 AI 的生成式模型,在未來的技術創新,和帶來的全新產品體驗。



          注:封面圖來自于 Independent.co.uk,版權屬于原作者。如果不同意使用,請盡快聯系我們,我們會立即刪除。



          喜歡這篇文章?



          1)點擊右下角的“在看”
          2)分享到你的朋友圈和群里
          3)趕快關注硅星人吧!
          關注硅星人,你就能了解硅谷
          最新的科技進展和灣區的大事小情,變身最in技術潮人


          Copyright © 2021.Company 元宇宙YITB.COM All rights reserved.元宇宙YITB.COM

        1. <dfn id="njlhd"></dfn><source id="njlhd"></source>

          <source id="njlhd"></source>

            <dfn id="njlhd"><video id="njlhd"></video></dfn>
            <source id="njlhd"><address id="njlhd"><sup id="njlhd"></sup></address></source>

            <b id="njlhd"><small id="njlhd"></small></b>
              <tt id="njlhd"></tt>

                <video id="njlhd"><address id="njlhd"><kbd id="njlhd"></kbd></address></video>
              1. 4438xx亚洲最大五色丁香