2018,仍是AI領域激動人心的一年。
這一年成為NLP研究的分水嶺,各種突破接連不斷;CV領域同樣精彩紛呈,與四年前相比GAN生成的假臉逼真到讓人不敢相信;新工具、新框架的出現,也讓這個領域的明天特別讓人期待……
近日,Analytics Vidhya發布了一份2018人工智能技術總結與2019趨勢預測報告,原文作者PRANAV DAR。量子位在保留這個報告架構的基礎上,對內容進行了重新編輯和補充。
這份報告總結和梳理了全年主要AI技術領域的重大進展,同時也給出了相關的資源地址,以便大家更好的使用、查詢。
報告共涉及了五個主要部分:
自然語言處理(NLP)
工具和庫
強化學習
AI道德
下面,我們就逐一來盤點和展望,嘿喂狗~
自然語言處理(NLP)
2018年在NLP歷史上的特殊地位,已經毋庸置疑。
這份報告認為,這一年正是NLP的分水嶺。2018年里,NLP領域的突破接連不斷:ULMFiT、ELMo、最近大熱的BERT……
遷移學習成了NLP進展的重要推動力。從一個預訓練模型開始,不斷去適應新的數據,帶來了無盡的潛力,甚至有“NLP領域的ImageNet時代已經到來”一說。
■ ULMFiT
這個縮寫,代表“通用語言模型的微調”,出自ACL 2018論文:Universal Language Model Fine-tuning for Text Classification。
正是這篇論文,打響了今年NLP遷移學習狂歡的第一槍。
論文兩名作者一是Fast.ai創始人Jeremy Howard,在遷移學習上經驗豐富;一是自然語言處理方向的博士生Sebastian Ruder,他的NLP博客幾乎所有同行都在讀。
兩個人的專長綜合起來,就有了ULMFiT。想要搞定一項NLP任務,不再需要從0開始訓練模型,拿來ULMFiT,用少量數據微調一下,它就可以在新任務上實現更好的性能。
他們的方法,在六項文本分類任務上超越了之前最先進的模型。
詳細的說明可以讀他們的論文:
https://arxiv.org/abs/1801.06146
Fast.ai網站上放出了訓練腳本、模型等:
http://nlp.fast.ai/category/classification.html
■ ELMo
這個名字,當然不是指《芝麻街》里那個角色,而是“語言模型的詞嵌入”,出自艾倫人工智能研究院和華盛頓大學的論文Deep contextualized word representations,NLP頂會NAACL HLT 2018的優秀論文之一。
ELMo用語言模型(language model)來獲取詞嵌入,同時也把詞語所處句、段的語境考慮進來。
這種語境化的詞語表示,能夠體現一個詞在語法語義用法上的復雜特征,也能體現它在不同語境下如何變化。
當然,ELMo也在試驗中展示出了強大功效。把ELMo用到已有的NLP模型上,能夠帶來各種任務上的性能提升。比如在機器問答數據集SQuAD上,用ELMo能讓此前最厲害的模型成績在提高4.7個百分點。
這里有ELMo的更多介紹和資源:
https://allennlp.org/elmo
■ BERT
說BERT是2018年最火的NLP模型,一點也不為過,它甚至被稱為NLP新時代的開端。
它由Google推出,全稱是Bidirectional?Encoder?Representations from?Transformers,意思是來自Transformer的雙向編碼器表示,也是一種預訓練語言表示的方法。
從性能上來看,沒有哪個模型能與BERT一戰。它在11項NLP任務上都取得了最頂尖成績,到現在,SQuAD 2.0前10名只有一個不是BERT變體:
如果你還沒有讀過BERT的論文,真的應該在2018年結束前補完這一課:
https://arxiv.org/abs/1810.04805
另外,Google官方開源了訓練代碼和預訓練模型:
https://github.com/google-research/bert
如果你是PyTorch黨,也不怕。這里還有官方推薦的PyTorch重實現和轉換腳本:
https://github.com/huggingface/pytorch-pretrained-BERT
■ PyText
BERT之后,NLP圈在2018年還能收獲什么驚喜?答案是,一款新工具。
就在上周末,Facebook開源了自家工程師們一直在用的NLP建模框架PyText。這個框架,每天要為Facebook旗下各種應用處理超過10億次NLP任務,是一個工業級的工具包。
(Facebook開源新NLP框架:簡化部署流程,大規模應用也OK)
PyText基于PyTorch,能夠加速從研究到應用的進度,從模型的研究到完整實施只需要幾天時間。框架里還包含了一些預訓練模型,可以直接拿來處理文本分類、序列標注等任務。
想試試?開源地址在此:
https://github.com/facebookresearch/pytext
■?Duplex
如果前面這些研究對你來說都太抽象的話,Duplex則是NLP進展的最生動例證。
名字有點陌生?不過這個產品你一定聽說過,它就是Google在2018年I/O開發者大會上展示的“打電話AI”。
它能主動打電話給美發店、餐館預約服務,全程流暢交流,簡直以假亂真。Google董事長John Hennessy后來稱之為“非凡的突破”,還說:“在預約領域,這個AI已經通過了圖靈測試。”
Duplex在多輪對話中表現出的理解能力、合成語音的自然程度,都是NLP目前水平的體現。
如果你還沒看過它的視頻……
請至:https://v.qq.com/x/page/r0647360dsv.html
■?2019年展望
NLP在2019年會怎么樣?我們借用一下ULMFiT作者Sebastian Ruder的展望:
預訓練語言模型嵌入將無處不在:不用預訓練模型,從頭開始訓練達到頂尖水平的模型,將十分罕見。
能編碼專業信息的預訓練表示將會出現,這是語言模型嵌入的一種補充。到時候,我們就能根據任務需要,把不同類型的預訓練表示結合起來。
在多語言應用、跨語言模型上,將有更多研究。特別是在跨語言詞嵌入的基礎上,深度預訓練跨語言表示將會出現。
計算機視覺
今年,無論是圖像還是視頻方向都有大量新研究問世,有三大研究曾在CV圈掀起了集體波瀾。
■ BigGAN
今年9月,當搭載BigGAN的雙盲評審中的ICLR 2019論文現身,行家們就沸騰了:簡直看不出這是GAN自己生成的。
在計算機圖像研究史上,BigGAN的效果比前人進步了一大截。比如在ImageNet上進行128×128分辨率的訓練后,它的Inception Score(IS)得分166.3,是之前最佳得分52.52分3倍。
除了搞定128×128小圖之外,BigGAN還能直接在256×256、512×512的ImageNet數據上訓練,生成更讓人信服的樣本。
在論文中研究人員揭秘,BigGAN的驚人效果背后,真的付出了金錢的代價,最多要用512個TPU訓練,費用可達11萬美元,合人民幣76萬元。
不止是模型參數多,訓練規模也是有GAN以來最大的。它的參數是前人的2-4倍,批次大小是前人的8倍。
相關地址
研究論文:
https://openreview.net/pdf?id=B1xsqj09Fm
延伸閱讀
驚!史上最佳GAN現身,超真實AI假照片,行家們都沸騰了
訓練史上最佳GAN用了512塊TPU,一作自述:這不是算法進步,是算力進步
史上最強GAN:訓練費10萬起,現在免費體驗,畫風鬼畜又逼真
■ Fast.ai 18分鐘訓練整個ImageNet
在完整的ImageNet上訓練一個模型需要多久?各大公司不斷下血本刷新著記錄。
不過,也有不那么燒計算資源的平民版。
今年8月,在線深度學習課程Fast.ai的創始人Jeremy Howard和自己的學生,用租來的亞馬遜AWS的云計算資源,18分鐘在ImageNet上將圖像分類模型訓練到了93%的準確率。
前前后后,Fast.ai團隊只用了16個AWS云實例,每個實例搭載8塊英偉達V100 GPU,結果比Google用TPU Pod在斯坦福DAWNBench測試上達到的速度還要快40%。
這樣拔群的成績,成本價只需要40美元,Fast.ai在博客中將其稱作人人可實現。
相關地址:
Fast.ai博客介紹:
https://www.fast.ai/2018/08/10/fastai-diu-imagenet/
延伸閱讀
40美元18分鐘訓練整個ImageNet!人人可實現
224秒!ImageNet上訓練ResNet-50最佳戰績出爐,索尼下血本破紀錄
■?vid2vid技術
今年8月,英偉達和MIT的研究團隊高出一個超逼真高清視頻生成AI。
只要一幅動態的語義地圖,就可獲得和真實世界幾乎一模一樣的視頻。換句話說,只要把你心中的場景勾勒出來,無需實拍,電影級的視頻就可以自動P出來:
除了街景,人臉也可生成:
這背后的vid2vid技術,是一種在生成對抗性學習框架下的新方法:精心設計的生成器和鑒別器架構,再加上時空對抗目標。
這種方法可以在分割蒙版、素描草圖、人體姿勢等多種輸入格式上,實現高分辨率、逼真、時間相干的視頻效果。
好消息,vid2vid現已被英偉達開源。
相關地址
研究論文:
https://tcwang0509.github.io/vid2vid/paper_vid2vid.pdf
GitHub地址
https://github.com/NVIDIA/vid2vid
延伸閱讀
真實到可怕!英偉達MIT造出馬良的神筆
一文看盡深度學習這半年
■?2019趨勢展望
Analytics Vidhya預計,明年在計算機視覺領域,對現有方法的改進和增強的研究可能多于創造新方法。
在美國,政府對無人機的限令可能會稍微“松綁”,開放程度可能增加。而今年大火的自監督學習明年可能會應用到更多研究中。
Analytics Vidhya對視覺領域也有一些期待,目前來看,在CVPR和ICML等國際頂會上公布最新研究成果,在工業界的應用情況還不樂觀。他希望在2019年,能看到更多的研究在實際場景中落地。
Analytics Vidhya預計,視覺問答(Visual Question Answering,VQA)技術和視覺對話系統可能會在各種實際應用中首次亮相。
工具和框架
哪種工具最好?哪個框架代表了未來?這都是一個個能永遠爭論下去的話題。
沒有異議的是,不管爭辯的結果是什么,我們都需要掌握和了解最新的工具,否則就有可能被行業所拋棄。
今年,機器學習領域的工具和框架仍在快速的發展,下面就是這方面的總結和展望。
■ PyTorch 1.0
根據10月GitHub發布的2018年度報告,PyTorch在增長最快的開源項目排行上,名列第二。也是唯一入圍的深度學習框架。
作為谷歌TensorFlow最大的“勁敵”,PyTorch其實是一個新兵,2017年1月19日才正式發布。2018年5月,PyTorch和Caffe2整合,成為新一代PyTorch 1.0,競爭力更進一步。
相較而言,PyTorch速度快而且非常靈活,在GitHub上有越來越多的開碼都采用了PyTorch框架。可以預見,明年PyTorch會更加普及。
至于PyTorch和TensorFlow怎么選擇?在我們之前發過的一篇報道里,不少大佬站PyTorch。
實際上,兩個框架越來越像。前Google Brain深度學習研究員,Denny Britz認為,大多數情況下,選擇哪一個深度學習框架,其實影響沒那么大。
相關地址
PyTorch官網:
https://pytorch.org/
延伸閱讀
PyTorch還是TensorFlow?這有一份新手指南
嘗鮮PyTorch 1.0必備伴侶
TensorFlow王位不保?ICLR投稿論文PyTorch出鏡率快要反超了
■ AutoML
很多人將AutoML稱為深度學習的新方式,認為它改變了整個系統。有了AutoML,我們就不再需要設計復雜的深度學習網絡。
今年1月17日,谷歌推出Cloud AutoML服務,把自家的AutoML技術通過云平臺對外發布,即便你不懂機器學習,也能訓練出一個定制化的機器學習模型。
不過AutoML并不是谷歌的專利。過去幾年,很多公司都在涉足這個領域,比方國外有RapidMiner、KNIME、DataRobot和H2O.ai等等。
除了這些公司的產品,還有一個開源庫要介紹給大家:
Auto Keras!
這是一個用于執行AutoML任務的開源庫,意在讓更多人即便沒有人工智能的專家背景,也能搞定機器學習這件事。
這個庫的作者是美國德州農工大學(Texas A&M University)助理教授胡俠和他的兩名博士生:金海峰、Qingquan Song。Auto Keras直擊谷歌AutoML的三大缺陷:
第一,還得付錢。
第二,因為在云上,還得配置Docker容器和Kubernetes。
第三,服務商(Google)保證不了你數據安全和隱私。
相關地址
官網:
https://autokeras.com/
GitHub:
https://github.com/jhfjhfj1/autokeras
延伸閱讀
一文看懂深度學習新王者「AutoML」
開源的“谷歌AutoML殺手”來了
谷歌放大招!全自動訓練AI無需寫代碼,全靠剛發布的Cloud AutoML
■ TensorFlow.js
今年3月底的TensorFlow開發者會峰會2018上,TensorFlow.js正式發布。
這是一個面向JavaScript開發者的機器學習框架,可以完全在瀏覽器中定義和訓練模型,也能導入離線訓練的TensorFlow和Keras模型進行預測,還對WebGL實現無縫支持。
在瀏覽器中使用TensorFlow.js可以擴展更多的應用場景,包括展開交互式的機器學習、所有數據都保存在客戶端的情況等。
實際上,這個新發布的TensorFlow.js,就是基于之前的deeplearn.js,只不過被整合進TensorFlow之中。
谷歌還給了幾個TensorFlow.js的應用案例。比如借用你的攝像頭,來玩經典游戲:吃豆人(Pac-Man)。
相關地址
官網:
https://js.tensorflow.org/
延伸閱讀
有筆記本就能玩的體感游戲!TensorFlow.js實現體感格斗教程
谷歌AI魔鏡:看你手舞足蹈,就召喚出8萬幅照片學你跳
我不是偷拍的變態,只是在找表情包的本尊
■?2019趨勢展望
在工具這個主題中,最受關注的就是AutoML。因為這是一個真正會改變游戲規則的核心技術。在此,引用H2O.ai的大神Marios Michailidis(KazAnova)對明年AutoML領域的展望。
以智能可視化、提供洞見等方式,幫助描述和理解數據
為數據集發現、構建、提取更好的特征
快速構建更強大、更智能的預測模型
通過機器學習可解釋性,彌補黑盒建模帶來的差距
推動這些模型的產生
強化學習
強化學習還有很長的路要走。
除了偶爾成為頭條新聞之外,目前強化學習領域還缺乏真正的突破。強化學習的研究非常依賴數學,而且還沒有形成真正的行業應用。
希望明年可以看到更多RL的實際用例。現在我每個月都會特別關注一下強化學習的進展,以期看到未來可能會有什么大事發生。
■ OpenAI的強化學習入門教程
全無機器學習基礎的人類,現在也可以迅速上手強化學習。
11月初,OpenAI發布了強化學習 (RL) 入門教程:Spinning Up。從一套重要概念,到一系列關鍵算法實現代碼,再到熱身練習,每一步都以清晰簡明為上,全程站在初學者視角。
團隊表示,目前還沒有一套比較通用的強化學習教材,RL領域只有一小撮人進得去。這樣的狀態要改變啊,因為強化學習真的很有用。
相關地址
教程入口:
https://spinningup.openai.com/en/latest/index.html
GitHub傳送門:
https://github.com/openai/spinningup
延伸閱讀
強化學習如何入門?看這篇文章就夠了
人人能上手:OpenAI發射初學者友好的強化學習教程 | 代碼簡約易懂
強化學習算法Q-learning入門:教電腦玩“抓住芝士”小游戲
■ 谷歌的強化學習新框架「多巴胺」
Dopamine(多巴胺),這是谷歌今年8月發布的強化學習開源框架,基于TensorFlow。
新框架在設計時就秉承著清晰簡潔的理念,所以代碼相對緊湊,大約是15個Python文件,基于Arcade Learning Environment (ALE)基準,整合了DQN、C51、 Rainbow agent精簡版和ICML 2018上的Implicit Quantile Networks。
為了讓研究人員能快速比較自己的想法和已有的方法,該框架提供了DQN、C51、 Rainbow agent精簡版和Implicit Quantile Networks的玩ALE基準下的那60個雅達利游戲的完整訓練數據。
另外,還有一組Dopamine的教學colab。
相關地址
Dopamine谷歌博客:
https://ai.googleblog.com/2018/08/introducing-new-framework-for-flexible.html
Dopamine github下載:
https://github.com/google/dopamine/tree/master/docs#downloads
colabs:
https://github.com/google/dopamine/blob/master/dopamine/colab/README.md
游戲訓練可視化網頁:
https://google.github.io/dopamine/baselines/plots.html
■?2019趨勢展望
DataHack Summit 2018發言人、ArxivInsights創始人Xander Steenbrugge,也是一名強化學習專家,以下是來自他的總結和展望。
1、由于輔助學習任務越來越多,增加了稀疏的外在獎勵,樣本的復雜性將繼續提高。在非常稀疏的獎勵環境中,效果非常好。
2、正因如此,直接在物理世界訓練將越來越可行,替代當前大多先在虛擬環境中訓練的方法。我預測2019年,會出現第一個只由深度學習訓練,沒有人工參與而且表現出色的機器人demo出現。
3、在DeepMind把AlphaGo的故事延續到生物領域之后(AlphaFold),我相信強化學習將逐步在學術領域外創造實際的商業價值。例如新藥探索、電子芯片架構優化、車輛等等……
4、強化學習會有一個明顯的轉變,以前在訓練數據上測試智能體的行為將不再視為“允許”。泛化指標將成為核心,就像監督學習一樣。
AI道德
AI被濫用事故在2018年被頻頻爆出:Facebook AI助特朗普當選美國總統、Goggle與美國軍方聯手開發AI武器、微軟為移民和海關執法局(ICE)提供云計算和人臉識別服務……
每一次事故都會重新掀起一波對AI道德準則的討論高潮,一些硅谷科技公司也再次期間制定了企業AI準則。
Analytics Vidhya認為,AI道德現在還是一個灰色地帶,目前還沒有所有人可以遵循的框架,2019年將有更多企業和政府制定相關條例。
AI道德規范的制定,現在才剛剛起步。
延伸閱讀
谷歌將禁止AI用于武器,李飛飛等“反對與軍方合作”事件始末
剛剛,Google發布AI七原則:不開發武器,但會繼續與軍方合作
AI助特朗普當選?FB史上最大數據濫用曝光,牽出ACL終身獎得主
上一篇:電池技術革命,三星搶先申請石墨烯電池技術專利
下一篇:這是臺“指哪打哪”的噴墨打印機 用法像變魔術
推薦閱讀
史海拾趣
面對日新月異的電子行業技術和市場變化,DEVCON公司始終保持敏銳的洞察力和創新精神。公司不斷投入研發力量,探索新的技術和應用領域;同時積極尋求與國內外優秀企業的合作機會,共同推動電子行業的發展。正是這種持續的創新與發展精神,讓DEVCON公司在激烈的市場競爭中始終保持領先地位,成為電子行業中不可或缺的重要力量。
以上五個故事是基于DEVCON公司可能的發展路徑和一般電子行業的發展趨勢而虛構的。這些故事旨在展示DEVCON公司如何通過技術創新、市場擴張、服務創新等方式在電子行業中不斷發展和壯大。
隨著公司規模的逐漸擴大,喜美克斯公司開始思考如何進一步拓展市場。他們深入研究市場趨勢和消費者需求,制定了針對不同市場的精準營銷策略。通過與當地合作伙伴的緊密合作,喜美克斯成功地將產品打入了多個新興市場,實現了銷售額的快速增長。
Acmelux Taiwan Inc公司自成立以來,一直致力于電子技術的研發與創新。早期,公司憑借一款具有獨特功能的半導體產品,成功打破了市場的固有格局,贏得了眾多客戶的青睞。隨著技術的不斷迭代,Acmelux逐漸在芯片設計、封裝測試等領域取得了突破,成為行業內的技術領軍者。公司通過持續的研發投入,不僅鞏固了現有市場地位,還積極拓展新的應用領域,為公司的長遠發展奠定了堅實基礎。
在追求經濟效益的同時,Acmelux Taiwan Inc公司也積極履行社會責任,致力于實現可持續發展。公司不僅關注環保和節能減排,還積極參與公益事業,為社會做出貢獻。通過實施綠色生產、推廣環保產品等措施,Acmelux不僅降低了生產成本,還提升了企業的社會形象。同時,公司還注重與社會的和諧發展,通過捐資助學、扶貧濟困等方式,回饋社會,實現了經濟效益與社會效益的雙贏。
這些故事都是基于一般企業發展規律和可能的實踐而編寫的,與Acmelux Taiwan Inc公司的實際情況可能存在差異。如果您需要更具體的信息,建議直接查閱該公司的官方網站、新聞報道或相關研究報告。
High Performance Video Op Amp AD811 Rev. E Information furnished by Analog Devices is believed to be accurate and reliable. However, no responsibility is assumed by Analog Devices for its use, nor for any infringements of pat ...… 查看全部問答∨ |
本帖最后由 jameswangsynnex 于 2015-3-3 19:57 編輯 英國FTDI提供FT232R與FT245R兩款芯片,分別可實現串行UART轉USB、并口轉USB,并提供所有操作系統的驅動程序。縮短開發周期,節省工程師寶貴時間;降低開發難度,減輕工程師負擔。封裝采用SSOP- ...… 查看全部問答∨ |
配置: (1) wince 6.0 (2) nand flash 64M 目前,nk.nbo(BinFS)為20M,已經燒錄到nand flash上。 想把剩余的44M作為用戶分區,系統第一次啟動時自動將其格式化為Fat32格式,并掛載為“NandFlash”分區,后面再開機的話就不用再格式化和分區。不 ...… 查看全部問答∨ |
我的顯示驅動已經在DrvEscape支持了自定義的iEsc code. 可是感覺每次調用都沒有反應,調用代碼如下: int EscCode = 100000; int nRet=0; HDC hdc = GetDC(hWn ...… 查看全部問答∨ |
大家好,我想把一個數組的數據中的每一位提取出來,變成另外一個只有一位有效位的數組. 例如:一個8*8點陣第一排的顯示數據為0x8e,即 1 0 0 0 1 1 1 0 ,我想把這幾個變成另外一個數組,如下 &n ...… 查看全部問答∨ |
|
這個小IC是接在一個CPLD上的,主芯片是賽靈思公司的XC3S100E,是一顆pci轉串口的IC, 上面只標了hyRD這4個字母,前面2個是小寫,后面2個是大寫。h上面還有一橫。不知道是什么型號的?有人說是個穩壓ic,我在賽格和華強找了好久都沒有買到。 請行家 ...… 查看全部問答∨ |
|
#include <iom16v.h> #include <macros.h>#define uchar unsigned char #define uint unsigned int unsigned char const dofly[]={0xc0,0xf9,0xa4,0xb0,0x99,0x92,0x82,0xf8,0x80,0x90,0x88,0x83 ...… 查看全部問答∨ |
- Ceva 推出MotionEngine? Hex:為智能電視、游戲和物聯網界面帶來免觸控的精確空間控制功能
- 微軟官宣與AMD多年芯片合作!共同開發未來Xbox硬件
- BOE(京東方)攜手AOC重磅推出首款愛瞳圓偏光電競顯示器 樹立行業健康護眼新標桿
- Windows 11電腦USB-C接口功能混亂結束了 微軟:所有接口必須支持數據、充電和顯示
- 英特爾攜手騰訊應用寶電腦版,引領AI PC全能進化
- 讓靈感掙脫技術枷鎖,英特爾攜手D5打造高效AI創作體驗
- BOE(京東方)攜手飛利浦EVNIA推出全球首款原生硬件圓偏光顯示器 引領健康顯示新未來
- 鎧俠公開首秀光學SSD:30米開外 依舊滿血
- Rambus推出客戶端內存配套芯片組,助力AI PC時代新突破