OpenAI研究實驗室已經發(fā)布了文本生成的AI系統(tǒng)的完整版本,專家警告說,該系統(tǒng)可能用于惡意目的。
該機構最初于今年2月發(fā)布了該系統(tǒng)GPT-2,但由于擔心該程序的完整版本會被用于傳播假新聞,垃圾郵件和虛假信息,因此拒絕了該程序的完整版本。從那時起,它發(fā)布了更小,更簡單的GPT-2版本,并研究了它們的接收情況。其他人也復制了工作。在本周的博客文章中,OpenAI現(xiàn)在表示“沒有明顯的濫用證據(jù)”,并已完全發(fā)布了該模型。
GPT-2是新一代文本生成系統(tǒng)的一部分,它們以最少的提示生成連貫的文本的能力給專家留下了深刻的印象。該系統(tǒng)接受了從網(wǎng)絡上抓取的800萬個文本文檔的培訓,并且可以響應用戶提供的文本片段。例如,給它提供一個偽造的標題,它將撰寫一個新聞故事;給它一首詩的第一行,它將提供一整節(jié)經文。
確切地傳達GPT-2的輸出質量是很棘手的,但是該模型通常會產生令人信服的,令人信服的文字,這些文字通常可以使人看起來很聰明(盡管這并不是說GPT-2所做的事情涉及我們認為是認知的任何事物) 。但是,在該系統(tǒng)上玩了足夠長的時間,其局限性變得很明顯。它尤其遭受長期一致性的挑戰(zhàn);例如,在故事中始終使用字符的名稱和屬性,或者在新聞文章中使用單個主題。
感受GPT-2的能力的最佳方法是自己嘗試一下。您可以在TalkToTransformer.com上訪問Web版本,然后輸入自己的提示。(“變壓器”是用于創(chuàng)建GPT-2及其同伴的機器學習體系結構的組成部分。)