應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

大學(xué)生用GPT-3工具編寫虛假博文 并成功登頂Hacker News

2020-08-17 11:41 cnBeta.COM

導(dǎo)讀:程序在沒有任何指導(dǎo)的情況下尋找和發(fā)現(xiàn)模式,然后利用這些模式來完成文本提示。

援引外媒 MIT Technology Review 報道,大學(xué)生 Liam Porr 使用語言生成 AI 工具 GPT-3 生成了一篇假博文,并登上了 Hacker News 的榜首。Porr 試圖證明,GPT-3 制作的內(nèi)容可以騙取人們的信任,讓人們相信它是由人類編寫的。而且他還表示:“這實際上超級容易,這才是最可怕的地方。”

GPT-3 是由總部位于舊金山的 OpenAI 設(shè)計的一系列人工智能自動完成工具,已經(jīng)推出有數(shù)年之久。其中“GPT-3”代表的是“generative pre-trained transformer”(生成式預(yù)訓(xùn)練轉(zhuǎn)化器),根據(jù)人類作家的提示自動完成文本。

它的工作原理如下

就像所有深度學(xué)習(xí)系統(tǒng)一樣,GPT-3 會在數(shù)據(jù)中尋找模式。為了簡化操作,該程序已經(jīng)在一個巨大的文本語料庫上進行了訓(xùn)練,并對其進行了統(tǒng)計規(guī)律性的挖掘。這些規(guī)律性對人類來說是未知的,但它們被存儲為GPT-3的神經(jīng)網(wǎng)絡(luò)中不同節(jié)點之間的數(shù)十億個加權(quán)連接。

重要的是,在這個過程中不涉及人類的輸入:程序在沒有任何指導(dǎo)的情況下尋找和發(fā)現(xiàn)模式,然后利用這些模式來完成文本提示。例如,你在 GPT-3 中輸入單詞“fire”,程序就會根據(jù)網(wǎng)絡(luò)中的權(quán)重,就會接“truck”和“alarm”等單詞,比“l(fā)ucid”或“elvish”更有可能出現(xiàn)。

在 Porr 的博客文章中展示了一個樣本,標(biāo)題為《Feeling unproductive? Maybe you should stop overthinking》(感覺沒有效率?也許你應(yīng)該停止過度思考)。

Definition #2: 過度思考(OT)是指試圖提出已經(jīng)被別人想好的想法的行為。OT 的結(jié)果通常是不切實際的、不可能的、甚至是愚蠢的想法。

Porr提交了申請。他用簡單的問卷填寫了有關(guān)其預(yù)期用途的表格。但是他也沒有等待。在接觸了伯克利AI社區(qū)的幾位成員后,他迅速找到了已經(jīng)可以使用的博士生。

研究生同意合作后,Porr編寫了一個小腳本供他運行。它為GPT-3提供了博客文章的標(biāo)題和簡介,并吐出了幾個完整的版本。

Porr的第一篇文章(在Hacker News上登載的文章)以及其后的每篇文章都是其中一項輸出的直接復(fù)制和粘貼。

他說:“從我想到這個主意并與博士生接觸以來,我實際上創(chuàng)建了博客,并且第一個病毒式傳播的博客-花費了幾個小時?!?/p>

無需編輯即可生成內(nèi)容的訣竅是了解GPT-3的優(yōu)點和缺點。Porr說:“它擅長于編寫漂亮的語言,而并不擅長于邏輯和理性?!?因此,他選擇了一個受歡迎的博客類別,該類別不需要嚴(yán)格的邏輯:生產(chǎn)力和自助。

Porr 表示,他想證明 GPT-3可以作為人類作家被假冒。確實,盡管該算法的編寫模式有些怪異,并且偶爾會出現(xiàn)錯誤,但是在他對Hacker News的最高帖子發(fā)表評論的數(shù)十個人中,只有三到四個人懷疑它可能是由算法生成的。所有這些評論都立即遭到其他社區(qū)成員的反對。

Porr 說,他的實驗還顯示了一個更為平凡但仍令人不安的替代方案:人們可以使用該工具生成大量的點擊誘餌內(nèi)容。他說:“可能會有大量平庸的博客內(nèi)容,因為現(xiàn)在進入的障礙是如此的容易,” “我認(rèn)為在線內(nèi)容的價值將大大降低?!?/p>