導讀:身處被廣泛熱議的人工智能時代, 人們普遍意識到,AI技術確實已經成為“無往不利”的神器一枚,不但日常生活不斷提升的便利性要TA趕來幫忙,就連日漸被熱議的企業(yè)數(shù)字化轉型也少不了TA的杰出貢獻,TA呢?早就成為開發(fā)者群體以及企業(yè)們爭相“追趕并擁抱”的對象!
身處被廣泛熱議的人工智能時代, 人們普遍意識到,AI技術確實已經成為“無往不利”的神器一枚,不但日常生活不斷提升的便利性要TA趕來幫忙,就連日漸被熱議的企業(yè)數(shù)字化轉型也少不了TA的杰出貢獻,TA呢?早就成為開發(fā)者群體以及企業(yè)們爭相“追趕并擁抱”的對象!
身處被廣泛熱議的人工智能時代, 人們普遍意識到,AI技術確實已經成為“無往不利”的神器一枚,不但日常生活不斷提升的便利性要TA趕來幫忙,就連日漸被熱議的企業(yè)數(shù)字化轉型也少不了TA的杰出貢獻,TA呢?早就成為開發(fā)者群體以及企業(yè)們爭相“追趕并擁抱”的對象!
如此背景下,怎樣在“認知、算法、數(shù)據(jù)”三重作用下,降低AI落地的門檻?
如何幫助企業(yè)降低研發(fā)成本、加速方案迭代并完美實現(xiàn)AI 產品化?
或許這些統(tǒng)統(tǒng)都可以歸結為“云知道”
這不,就在前不久剛剛結束的UCan下午茶深圳站活動中,多位技術大咖針對以上問題進行了深入探討,涉及AI 與公有云平臺、云計算助力AI快速完成底層架構搭建等諸多關于“云+AI”的技術方向,干貨滿滿。
沙龍現(xiàn)場座無虛席
現(xiàn)場超百位開發(fā)者熱情參與了交流與互動,尤其對AI平臺、UCloud安全屋產品、NLP 技術以及AutoML等十分關注。此外,這些探討也將為云計算與AI相關領域的從業(yè)者們提供借鑒與新思路,并十分值得廣大開發(fā)者們認真學習與總結!
AI公有云平臺實踐
如今AI技術在適應不同場景時所呈現(xiàn)的算法形式多種多樣,為了實現(xiàn)更多場景的兼容性,高效的平臺建設對廣大開發(fā)者來說必不可少。
UCloud LabU深度學習開發(fā)工程師范融在“AI公有云平臺實踐”的主題分享中表示,在整個研發(fā)周期中,面對源于AI 的諸多問題,無論是企業(yè)還是開發(fā)者自然都要選擇可以兼容更多深度學習算法以及框架,并保證存儲、網絡性能優(yōu)勢解決方案。
可見,一個優(yōu)質的平臺恰好可以達到靈活的橫向擴展能力以及對業(yè)務規(guī)模的支持,另外在彈性、容災簡單方便的代碼遷移等方面更是表現(xiàn)出色,如此看來AI平臺建設的重大意義需要被廣泛認同。
此外,范融在演講中還詳細介紹了UCloud關于AI 基礎平臺架構的很多技術干貨。
“聚焦整個AI 平臺架構,中間占位比較多的部分主要承擔了錯誤處理、負載均衡等功能。底層部分我們兼容了CPU 算力加速的設置,在存儲方面設計了一個統(tǒng)一的接入層,可以達到怎樣的效果?無論以何種形式的存儲進入該平臺,對于開發(fā)者們的訪問都會像本地訪問一樣簡單快捷?!彼M一步說。
據(jù)了解,為了方便用戶更好使用平臺功能,網絡上開發(fā)了兩種交互界面,例如對于希望采用自動化完成與本地流程接入的用戶,可以使用docker支持,方便完成遠程自動連接。
需要強調的是,在基礎架構中,為了可以提供兼容性更好的運行環(huán)境,UCloud平臺采用了封裝、預裝、自由、可重用、兼容性等多種技術方式。
“所謂的封裝性,就是在運行具體任務時,并不用擔心會對自身的安裝環(huán)境產生干擾;預裝呢?顧名思義,就是我們針對用戶經常使用的深度學習框架以及科學計算包做了預裝,這樣在本地使用的話直接下載就可以,非常方便;另外一點就是自由,雖然已經安裝了大部分科技計算包的用戶可以做到開箱自用,但不排除有的用戶涉及到的領域比較冷門,這樣一來完全可以依照需要自行下載,正常運行相關安裝包完全沒有問題;還有一點是可重用,這在開源鏡像數(shù)據(jù)庫領域表現(xiàn)明顯,可以做到為開發(fā)者們大量節(jié)省時間等?!狈度谘a充道。
當然整體架構在靈活接入數(shù)據(jù)源、彈性資源調節(jié)等方面也有顯著優(yōu)勢。
通常在本地進行計算時,絕大多數(shù)人會配置外掛盤,將所有的訓練數(shù)據(jù)存儲在磁盤上。但對于云上的數(shù)據(jù)呢?肯定是優(yōu)先放在云存儲中,這個過程中是否需要云存儲修改程序,將本地存儲轉化為遠端?
對此,范融解釋道,平臺會將遠端的存儲鏈接數(shù)據(jù)接入層,這樣就像訪問自己的文件一樣。數(shù)據(jù)接入層除了達到緩存的目的之外,還可以做到諸如帶寬的數(shù)據(jù)控制、訪問數(shù)據(jù)的權限控制等,以便可以做到每個用戶訪問的都是屬于自己的數(shù)據(jù),不會出現(xiàn)誤訪問的情況,有效保證數(shù)據(jù)安全。在數(shù)據(jù)源的靈活接入方面,UCloud未來還會不斷擴展數(shù)據(jù)類型,以及增加云盤等不同的訪問形式。
如今都選擇使用云上資源而不是本地資源,主要由于本地資源擴容比較麻煩,還伴隨一定的成本支出,但是云上又如何做到彈性擴容呢?
范融對開發(fā)者們說:“從部署架構的角度考慮,每一個AI的訓練集群我們都會根據(jù)SET來管理,用戶不管啟動訓練還是任務推理,都可以選擇適合自己算力的類型?!?/p>
這個設置的好處在于用戶使用實際訓練任務時,可以根據(jù)自己的訓練任務需求來尋求不同的資源,達成資源的合理分配;另外一點,由于整體集群是平臺運營的,不管訓練任務還是推理任務都會產生自動檢測,肯定不會影響業(yè)務的繼續(xù)開展。
架構的事兒講完了,關于利用AI 平臺加速訓練又是怎樣的呢?
以圖像分類算法為例,CIfar數(shù)據(jù)集的優(yōu)勢在于統(tǒng)一了32×32的標準大小。
范融強調,圖像分類用到的算法是最簡單的CNN,有兩個重要的算子。一個就是卷積算子,卷積計算的作用其實就是把圖像中特征的部分掃描出來,一般來說會用一個卷積核。
可以看到,卷積核是3×3的,這樣一個3×3的卷積核代表一個特征,是一條曲線或者一條直線。在這個過程進行一個掃描,做計算,就會形成一個新圖形,這樣的計算掃描部分是將符合卷積核相符數(shù)值的結果放到第一層。
但會意識到一個缺點,每次卷積之后會有一個邊緣被掃描掉,所以如果在原圖上加一個邊框的話就避免了這樣的問題。
除了比較重要的卷積算法之外,另一個就是池化計算。
“當我們用很多卷積核做計算的時候,就會發(fā)現(xiàn)原來一圖片會變成多張圖片,數(shù)據(jù)量會非常龐大,而且十分耗費算力。試想一下,是否可以將卷積出來的數(shù)據(jù)做一個綜合整理呢?綜合的方法一般有平均或者取最大值的算法,通過池化這個數(shù)據(jù)就會帶來縮小的效果然后進入下一個環(huán)節(jié)?!彼f。
每次卷積之后,一次卷積后會完成激活,激活之后再進行池化計算,會把特征做連接,最后做分類處理。
據(jù)了解,范融所在的團隊目前已經推出AI在線服務、AI訓練服務兩個產品。其中AI在線服務PaaS平臺在2016-2017年可信云大會上獲得了AI行業(yè)云服務獎;AI訓練服務全程支持了2017年AI Challenger大賽的順利開展,在該領域表現(xiàn)十分出色。
云計算助力人工智能快速搭建底層資源
“盡管AI 很火爆,但對于AI系統(tǒng)建設,大家并不是太清晰。從我們自身出發(fā),通常著重考慮三個方面:首先是兼容性,這一點在圖像類以及語音類表現(xiàn)突出,AI 算法與其兼容主要包括切合性;另外會十分注重平臺擴展性,因為這涉及到訓練數(shù)據(jù)成倍增長的情況;此外就是分布式化的特點,實踐證明如果采用線下單機模式會十分影響效率。” UCloud互聯(lián)網事業(yè)部解決方案架構師徐強表示。
如果說AI系統(tǒng)建設是第一步的話,那確保AI“踏實”落地究竟有哪些高效地解決思路呢?
他認為,從UCloud自身出發(fā),首先會涉及到一個數(shù)據(jù)共享的平臺。
再高深的算法都需要大量數(shù)據(jù)的支持,怎樣獲取數(shù)據(jù)實在是個問題。如今是否有一種模式可以最大能力整合數(shù)據(jù)用于訓練呢?安全屋或許會起到一定作用。談及數(shù)據(jù)安全性,“安全屋底層都是基于公有云平臺,更重要的一點,我們采用的加密技術是基于區(qū)塊鏈的不可篡改性,并同時增加了審計機制來保障安全?!边M一步補充道。
此外,在環(huán)境分離、底層資源共享以及后期擴展性等方面,他強調,安全屋就是在保證數(shù)據(jù)所有權不變的情況下完成最大可能性的數(shù)據(jù)流通。
例如環(huán)境分離,可以帶來本地與云上環(huán)境體驗一致的情況?!熬唧w來說,首先我們會對Docker進行分裝,隨后選擇自己的框架再打包,然后上傳到AI系統(tǒng)中,上傳之后就可以直接調用。整個框架的中間部分是計算資源的共享,底層是數(shù)據(jù)的存儲,包括本地以及接入層的數(shù)據(jù)來源等。”徐強表示。
另外,十分重要的一個技術點就是容器
容器的設計可以保證在云上運用整體算法的過程中不會與軟件產生沖突,更不會造成數(shù)據(jù)泄露;提供比較多的基礎鏡像可以降低開發(fā)者的研發(fā)時間,在調用上也會更加便捷;更自由的是,用戶可以在系統(tǒng)中分裝出自己想要的算法、軟件等,自由“定制”后上傳即可使用。
提及可擴展性,他總結道,所謂縱向擴展可以被提供升降級的選擇,不會影響整體系統(tǒng)的在線升級;如果選擇分布式的橫向擴展,包括存儲資源在內,可以疊加,分布式的可用性不會受到影響。
目前該領域UCloud推出了兩大產品,第一個就是分布式AI訓練平臺。
在訓練平臺的作用下,將代碼通過Docker方式上傳,可以做到直接在控制臺種選擇相應的算力資源,還可以依托系統(tǒng)去實踐。
徐強提出,在這個過程中,無論是狀態(tài)還是誤差情況都可以清晰明了很直觀,此外還可以通過API的方式直接上傳,這對自建AI 系統(tǒng)的成本和壓力都降低很多。
具體來說,自建“版本”可能會造成資源利用不充分、采購時間較長、運維方面壓力山大等諸多問題。
另外一個就是分布式AI 在線服務平臺。“我們會在平臺后端提供APP接口,CPU、GPU方面會提供上萬臺計算的節(jié)點,所有的業(yè)務監(jiān)控都是可視化的,高可用性很強大,例如不同的可用區(qū)、不同的集群推廣等。”他說。
說到代表性的案例,徐強提及了2017年AI Challenger大賽。
賽事規(guī)模自不用多說,就連科研數(shù)據(jù)也是最大數(shù)量級的,據(jù)了解有1000萬的中英文翻譯數(shù)據(jù),30萬的圖像數(shù)據(jù)。所以由于數(shù)據(jù)量龐大,主辦方選擇UCloud作為GPU提供方,對此提供了有關AI 的整體解決方案。
“在底層提供了強大的算力資源、中間布置了AI在線服務以及AI訓練服務、然后就是安全屋。將龐大的數(shù)據(jù)放入安全屋中,然后根據(jù)需要分發(fā)給不同的選手;選手同時將自己的算法上傳到安全屋中,基于分發(fā)的數(shù)據(jù)做訓練,只要計算出模型就可以將數(shù)據(jù)導入,十分安全?!毙鞆娒枋龅馈?/p>
總結來說,UCloud一方面提供了底層的計算方法以及環(huán)境的自動部署,方便直接上傳到AI 系統(tǒng);另一方面在收費方面也表現(xiàn)的更加人性化,按需收費只在執(zhí)行過程中,其他時間不涉及費用問題。
精彩分享仍在繼續(xù),關于底層資源搭建的探討暫時告一段落后,達觀數(shù)據(jù)聯(lián)合創(chuàng)始人張健又為與會開發(fā)者帶來了主題為“文本智能處理的深度學習技術”的演講。
文本智能處理的深度學習技術
在有關NLP的知識以及實踐的分享中,他提到,其實電腦理解的文本與人理解的文本會有一些共同之處,通常也是從三個等級來體會。但NLP實踐中最重要的還是解決如何將機器學習或者深度學習高效應用在文本處理中。
對此張健表示,深度學習的基礎結構其實就是一個基本的神經網絡,可以理解為是最基本神經源結構,會接受S1、S2輸出,實現(xiàn)很簡單分類的功能,只是需要滿足一個很復雜的場景需求罷了。
此外深度學習無法規(guī)避基本結構的問題,也就是RNN和LSTM?!拔覀冊诶斫庹Z言的時候,其實是一個信息流,也是一個序列信息,會像S0、S1、S2。如果講一個字,當前時刻就可以把之前時刻的這種字詞信息收納進來并作為前項的輸入,再與當前的字詞結合后輸出;但是LSTM除了具備這樣一個結構,還增加了一個優(yōu)點,就是人們在講話的過程中,不可避免的是上下文環(huán)境中有些字詞重要,而有些則不那么重要,LSTM會對之前的信息進行有選擇通過或者丟棄?!彼麖娬{。
關于CNN,也就是最早運用于圖像處理領域,簡單來說就是識別“貓”或者“狗”,而不是會分析出貓身下的草坪有多綠。在處理文本時也會參考使用類似技術對圖片進行切片來保存重要信息,最后完成全連接實現(xiàn)分類。
總結來看,深度學習用于文本挖掘的確顯示了很多優(yōu)點,例如可以使用大量無監(jiān)督的數(shù)據(jù)提高能力;端到端的過程讓文本輸入、任務訓練再到輸出的環(huán)節(jié)并不需要做很多處理,更重要的是能夠克服傳統(tǒng)模型的缺點。
但這種方式并不是完全沒有缺點的,例如在小數(shù)據(jù)量的前提下效果不一定好,需要根據(jù)場景嚴格挑選適合的模型;另外調參工作量有時不亞于特征工程,甚至會限制部分應用。
此外,在現(xiàn)場分享時,張健還為與會開發(fā)者們提供了實踐經驗的小貼士來參考。首先在業(yè)務場景層面,用戶需要盡可能理解數(shù)據(jù),分析問題本質并選擇合適的模型;在使用的初始階段,可以選擇傳統(tǒng)機器學習模型作為嘗試,通過不斷深化針對數(shù)據(jù)的理解來解決相關問題;最后就是還需要在不斷的實踐中迭代經驗解決問題。
AutoML人工智能自動化模型設計與進化算法實現(xiàn)
當前,AutoML是人工智能發(fā)展的一個重要方向,受到Google,F(xiàn)acebook等諸多公司的重視。據(jù)了解,AutoML主要可以幫助解決的問題在于數(shù)據(jù)特征提取和擴增、機器學習和深度學習模型生成以及模型超參調優(yōu)等,通過序貫模型優(yōu)化、遷移學習、強化學習、元學習、進化算法、基于連續(xù)假設的梯度求導方法等來實現(xiàn)。
在“AutoML人工智能自動化模型設計與進化算法實現(xiàn)”的分享中,錢廣銳表示,在當前的實際場景中的確存在很多情況是單一模型并不能完全適應的,復合型模型在一些場景中特別需要。人工智能模型的設計是一個復雜的工作,要設計的小、準、快更是復雜。
“所有的框架以及算法是我們從大概年初剛剛開始實踐的,這樣一個人工智能模型自動設計平臺被稱為達爾文ML。真正的希望就是能夠實踐產品化的工作,用戶只要數(shù)據(jù)輸入,不需要做任何之前的預設假定就可以完成模型建設。”他說。
此外探智立方從數(shù)據(jù)準備、模型設計、生產對接為達爾文系統(tǒng)提供了整套“配置”,例如在工業(yè)制造方面,整個實踐過程中有5萬張照片,采取200×200的分類,錢廣銳將其放到新平臺中去,準確率可以達到75%左右,其中并沒有做復雜建模處理的工作,這個案例可以發(fā)現(xiàn),達爾文設計出來的模型特別小,準確率特別高。
無論是人工智能發(fā)展還是現(xiàn)有的一些場景中,很多場景模型的設計不只是在云端,由于達爾文設計出的模型比較小,錢廣銳也希望未來可以在手機端快速識別票據(jù)等。除了幫助企業(yè)應用落地,如何能在各個場景,例如智能制造、攝象頭等統(tǒng)統(tǒng)實現(xiàn)也是很重要的目標。
云計算、人工智能,從技術角度看涉及計算、存儲、網絡等范圍甚廣、學習難度大,但卻可以發(fā)揮重要作用。“云+AI”從產業(yè)角度看可以顯著提升傳統(tǒng)企業(yè)的運營效率,助力數(shù)字化升級;引領全新的商業(yè)模式,為各類企業(yè)贏得快速發(fā)展的機遇……
一直以來關于云的話題都是層出不窮,但對于大多數(shù)專注云計算本身的IT技術人員來說,或許對分布式文件系統(tǒng)和分布式塊存儲未必有很深入的了解,恰好機會來啦!UCloud將攜手CSDN特別推出UCan下午茶武漢站活動,屆時會邀請多位技術專家與現(xiàn)場的開發(fā)者們共同聊聊分布式存儲的那些事兒,敬請關注哈!
如需了解,點擊https://bss.csdn.net/m/topic/ucloud,了解更多詳情!