亚洲免费www97爱|草草aⅴ在线观看视频|伊伊综合网在线视频免费|在线日本道二区免费v

    您的位置:首頁>AI>

    精通文本的AI在這里寫小說

    幾年前的這個月,俄勒岡州波特蘭市的藝術(shù)家達里烏斯·卡茲米(Darius Kazemi)觀看了來自準小說家的大量推文。十一月是全國小說寫作月,當時人們渴望在幾周的時間里寫下50,000個單詞。對于計算藝術(shù)家Kazemi(其首選媒體是Twitter機器人)來說,這個想法聽起來有些曲折。他說:“我當時以為我永遠不會那樣做。”“但是,如果一臺計算機可以為我做,我會試一試。”

    Kazemi發(fā)出了這樣的推文,一群志趣相投的藝術(shù)家迅速投入了行動。他們在Github上建立了一個倉庫,人們可以在其中發(fā)布他們的項目并交換想法和工具,幾十個人開始編寫可以編寫文本的代碼。Kazemi通常不制作一部小說般的作品。他喜歡140個字符的精髓。所以他從那里開始。他編寫了一個程序,該程序抓取了適合特定模板的推文-一些(通常是子推文)提出了問題,以及Twitterverse中其他地方的合理答案。它進行了一些有趣的對話,但并不滿足要求。因此,在很大程度上,他讓程序從在線夢想日記中抓取了條目,并將它們穿插在對話之間,仿佛角色正陷入一種賦格狀態(tài)。他把它叫做“青少年在房子周圍游蕩”。首創(chuàng)“新穎”作品。

    自首個NaNoGenMo(即“生成”代替“文字”)已經(jīng)過去了6年。Kazemi說,精神上并沒有太大改變,盡管這次活動已經(jīng)遠遠超出了他的朋友圈。Github倉庫包含數(shù)百個項目。“小說”的定義很松散。一些參與者為經(jīng)典的敘事而罷工,這是一個凝聚力,人類可讀的故事,將形式結(jié)構(gòu)硬編碼到了他們的程序中。大多數(shù)不這樣做。古典小說通過算法轉(zhuǎn)化為超現(xiàn)實主義的模仿。Wiki文章和推文按情感進行匯總和排列,并以奇怪的組合方式進行混搭。有些人嘗試視覺藝術(shù)。至少會有一個人不可避免地對“喵,喵,喵...”進行50,000次以上的變體。

    但是改變的是工具。經(jīng)過數(shù)十億個單詞訓練的新型機器學習模型使計算機能夠生成聽起來比Kazemi起步時更像人類的文本。訓練模型以遵循語言的統(tǒng)計模式,學習語法的基本結(jié)構(gòu)。即使它們沒有故意的含義,它們也會生成完全可讀(至少在語法上)的句子甚至段落。本月初,OpenAI發(fā)布了GPT-2(最先進的此類模型)供公眾使用。您甚至可以微調(diào)系統(tǒng),以產(chǎn)生特定的風格-喬治詩,紐約客的文章,俄羅斯的錯誤信息-導致各種有趣的變形。

    GPT-2不能寫小說。如果您正在考慮使用奧斯丁或弗朗岑,甚至不會是外表。在丟失線程之前,它幾乎不能說出一個句子。但是,它仍然被證明是今年迄今為止啟動的80多個NaNoGenMo項目中的一種流行選擇。從紐約到洛杉磯六個小時的飛行中,有一個人寫了一本詩集。(該項目還強調(diào)了訓練此類語言模型所涉及的巨大碳足跡。)Janelle Shane是一位以尖端AI的創(chuàng)造性實驗而聞名的程序員,在推文中談到了所遇到的挑戰(zhàn)。一些GPT-2句子的技巧如此精巧,以至于她想知道它們是否被竊,直接從訓練數(shù)據(jù)集中剔除。否則,計算機通常會進入沉悶的重復或“無法理解的超現(xiàn)實主義”的境界。

    她寫道:“無論您為小說付出多大的努力,至少在AI掙扎更多的事實上,您都可以放心。”

    紐約大學教授計算創(chuàng)造力的艾里森·帕里什(Allison Parrish)說:“使文本具有逼真的外觀是一個有趣的技巧。”她說,但從美學的角度來看,GPT-2似乎沒有比老式機器學習技術(shù)更多的話了,甚至還有自1940年代克勞德·香農(nóng)首次宣布語言以來就一直用于文本預測的馬爾可夫鏈。是信息。從那以后,藝術(shù)家一直在使用這些工具來進行斷言,Parrish說:“語言不過是統(tǒng)計而已。”

    免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!