亚洲变态另类av首页_亚洲国产综合在线一_正在播放极品白嫩一线天_女生麻豆av在线


首頁
產(chǎn)品系列
行業(yè)應用
渠道合作
新聞中心
研究院
投資者關系
技術支持
關于創(chuàng)澤
| En
 
  當前位置:首頁 > 新聞資訊 > 機器人開發(fā) > 如何更高效地壓縮時序數(shù)據(jù)?基于深度強化學習的探索  
 

如何更高效地壓縮時序數(shù)據(jù)?基于深度強化學習的探索

來源:阿里機器智能      編輯:創(chuàng)澤      時間:2020/6/4      主題:其他   [加盟]

隨著移動互聯(lián)網(wǎng)、IoT、5G 等的應用和普及,一步一步地我們走進了數(shù)字經(jīng)濟時代。隨之而來的海量數(shù)據(jù)將是一種客觀的存在,并發(fā)揮出越來越重要的作用。時序數(shù)據(jù)是海量數(shù)據(jù)中的一個重要組成部分,除了挖掘分析預測等,如何高效的壓縮存儲是一個基礎且重要的課題。同時,我們也正處在人工智能時代,深度學習已經(jīng)有了很多很好的應用,如何在更多更廣的層面發(fā)揮作用?本文總結(jié)了當前學術界和工業(yè)界數(shù)據(jù)壓縮的方法,分析了大型商用時序數(shù)據(jù)壓縮的特性,提出了一種新的算法,分享用深度強化學習進行數(shù)據(jù)壓縮的研究探索及取得的成果。

深度學習的本質(zhì)是做決策,用它解決具體的問題時很重要的是找到契合點,合理建模,然后整理數(shù)據(jù)優(yōu)化 loss 等最終較好地解決問題。在過去的一段時間,我們在用深度強化學習進行數(shù)據(jù)壓縮上做了一些研究探索并取得了一些成績,已經(jīng)在 ICDE 2020 research track 發(fā)表(Two-level Data Compression using Machine Learning in Time Series Database)并做了口頭匯報。在這里做一個整體粗略介紹,希望對其它的場景,至少是其它數(shù)據(jù)的壓縮等,帶來一點借鑒作用。

背景描述

1 時序數(shù)據(jù)

時序數(shù)據(jù)顧名思義指的是和時間序列相關的數(shù)據(jù),是日常隨處可見的一種數(shù)據(jù)形式。下圖羅列了三個示例:a)心電圖,b)股票指數(shù),c)具體股票交易數(shù)據(jù)。

關于時序數(shù)據(jù)庫的工作內(nèi)容,簡略地,在用戶的使用層面它需要響應海量的查詢,分析,預測等;而在底層它則需要處理海量的讀寫,壓縮解壓縮,采用聚合等操作,而這些的基本操作單元就是時序數(shù)據(jù) <timestamp, value>,一般(也可以簡化)用兩個 8 byte 的值進行統(tǒng)一描述。

可以想象,任何電子設備每天都在產(chǎn)生各種各樣海量的時序數(shù)據(jù),需要海量的存儲空間等,對它進行壓縮存儲及處理是一個自然而然的方法。而這里的著重點就是如何進行更高效的壓縮。

2  強化學習

機器學習按照樣本是否有 groundTruth 可分為有監(jiān)督學習,無監(jiān)督學習,以及強化學習等。強化學習顧名思義是不停地努力地去學習,不需要 groundTruth,真實世界很多時候也沒有 groundTruth,譬如人的認知很多時候就是不斷迭代學習的過程。從這個意義上來說,強化學習是更符合或更全面普遍的一種處理現(xiàn)實世界問題的過程和方法,所以有個說法是:如果深度學習慢慢地會像 C/Python/Java 那樣成為解決具體問題的一個基礎工具的話,那么強化學習是深度學習的一個基礎工具。

強化學習的經(jīng)典示意圖如下,基本要素為 State,Action,和 Environment;具^程為:Environment 給出 State,Agent 根據(jù) state 做 Action 決策,Action 作用在 Environment 上產(chǎn)生新的 State 及 reward,其中 reward 用來指導 Agent 做出更好的 Action 決策,循環(huán)往復….

而常見的有監(jiān)督學習則簡單很多,可以認為是強化學習的一種特殊情況,目標很清晰就是 groudTruth,因此對應的 reward 也比較清晰。

強化學習按照個人理解可以歸納為以下三大類:

1)DQN

Deep Q network,比較符合人的直觀感受邏輯的一種類型,它會訓練一個評估 Q-value 的網(wǎng)絡,對任一 state 能給出各個 Action 的 reward,然后最終選擇 reward 最大的那個 action 進行操作即可。訓練過程通過評估 “估計的 Q-value” 和 “真正得到的 Q-value” 的結(jié)果進行反向傳遞,最終讓網(wǎng)絡估計 Q-value 越來越準。

2)Policy Gradient

是更加端到端的一種類型,訓練一個網(wǎng)絡,對任一 state 直接給出最終的 action。DQN 的適用范圍需要連續(xù) state 的 Q-value 也比較連續(xù)(下圍棋等不適用這種情況),而 Policy Gradient 由于忽略內(nèi)部過程直接給出 action,具有更大的普適性。但它的缺點是更難以評價及收斂。一般的訓練過程是:對某一 state,同時隨機的采取多種 action,評價各種 action 的結(jié)果進行反向傳遞,最終讓網(wǎng)絡輸出效果更好的 action。

3)Actor-Critic

試著糅合前面兩種網(wǎng)絡,取長補短,一方面用 policy Gradient 網(wǎng)絡進行任一 state 的 action 輸出,另外一方面用 DQN 網(wǎng)絡對 policy gradient 的 action 輸出進行較好的量化評價并以之來指導 policy gradient 的更新。如名字所示,就像表演者和評論家的關系。訓練過程需要同時訓練 actor(policy Graident)和 critic(QN)網(wǎng)絡,但 actor 的訓練只需要 follow critic 的指引就好。它有很多的變種,也是當前 DRL 理論研究上不停發(fā)展的主要方向。

時序數(shù)據(jù)的壓縮

對海量的時序數(shù)據(jù)進行壓縮是顯而易見的一個事情,因此在學術界和工業(yè)界也有很多的研究和探索,一些方法有:

Snappy:對整數(shù)或字符串進行壓縮,主要用了長距離預測和游程編碼(RLE),廣泛的應用包括 Infuxdb。

Simple8b:先對數(shù)據(jù)進行前后 delta 處理,如果相同用RLE編碼;否則根據(jù)一張有 16 個 entry 的碼表把 1 到 240 個數(shù)(每個數(shù)的 bits 根據(jù)碼表)pack 到 8B 為單位的數(shù)據(jù)中,有廣泛的應用包括 Infuxdb。

Compression planner:引入了一些 general 的壓縮 tool 如 scale, delta, dictionary, huffman, run length 和 patched constant 等,然后提出了用靜態(tài)的或動態(tài)辦法組合嘗試這些工具來進行壓縮;想法挺新穎但實際性能會是個問題。

ModelarDB:側(cè)重在有損壓縮,基于用戶給定的可容忍損失進行壓縮。基本思想是把維護一個小 buff,探測單前數(shù)據(jù)是否符合某種模式(斜率的直線擬合),如果不成功,切換模式重新開始buff等;對支持有損的 IoT 領域比較合適。

Sprintz:也是在 IoT 領域效果會比較好,側(cè)重在 8/16 bit 的整數(shù)處理;主要用了 scale 進行預測然后用 RLC 進行差值編碼并做 bit-level 的 packing。

Gorilla:應用在 Facebook 高吞吐實時系統(tǒng)中的當時 sofa 的壓縮算法,進行無損壓縮,廣泛適用于 IoT 和云端服務等各個領域。它引入 delta-of-delta 對時間戳進行處理,用 xor 對數(shù)據(jù)進行變換然后用 Huffman 編碼及 bit-packing。示例圖如下所示。

MO:類似 Gorilla,但去掉了 bit-packing,所有的數(shù)據(jù)操作基本都是字節(jié)對齊,降低了壓縮率但提供了處理性能。











基于深度學習目標檢測模型優(yōu)缺點對比

深度學習模型:OverFeat、R-CNN、SPP-Net、Fast、R-CNN、Faster、R-CNN、R-FCN、Mask、R-CNN、YOLO、SSD、YOLOv2、416、DSOD300、R-SSD

傳統(tǒng)目標檢測算法對比

SIFT、PCA-SIFT、SURF 、ORB、 VJ 等目標檢測算法優(yōu)缺點對比及使用場合比較

基于深度學習和傳統(tǒng)算法的人體姿態(tài)估計,技術細節(jié)都講清楚了

人體姿態(tài)估計便是計算機視覺領域現(xiàn)有的熱點問題,其主要任務是讓機器自動地檢測場景中的人“在哪里”和理解人在“干什么”

讓大規(guī)模深度學習訓練線性加速、性能無損,基于BMUF的Adam優(yōu)化器并行化實踐

Adam 算法便以其卓越的性能風靡深度學習領域,該算法通常與同步隨機梯度技術相結(jié)合,采用數(shù)據(jù)并行的方式在多臺機器上執(zhí)行

音樂人工智能、計算機聽覺及音樂科技

音樂科技、音樂人工智能與計算機聽覺以數(shù)字音樂和聲音為研究對象,是聲學、心理學、信號處理、人工智能、多媒體、音樂學及各行業(yè)領域知識相結(jié)合的重要交叉學科,具有重要的學術研究和產(chǎn)業(yè)開發(fā)價值

【深度】未來5-10年計算機視覺發(fā)展趨勢為何?

專家(查紅彬,陳熙霖,盧湖川,劉燁斌,章國鋒)從計算機視覺發(fā)展歷程、現(xiàn)有研究局限性、未來研究方向以及視覺研究范式等多方面展開了深入的探討

華南理工大學羅晶博士和楊辰光教授團隊發(fā)文提出遙操作機器人交互感知與學習算法

羅晶博士和楊辰光教授團隊提出,遙操作機器人系統(tǒng)可以自然地與外界環(huán)境進行交互、編碼人機協(xié)作任務和生成任務模型,從而提升系統(tǒng)的類人化操作行為和智能化程度

實時識別卡扣成功裝配的機器學習框架

卡扣式裝配廣泛應用于多種產(chǎn)品類型的制造中,卡扣裝配是結(jié)構性的鎖定機制,通過一個機器學習框架將人類識別成功快速裝配的能力遷移到自主機器人裝配上。

基于多任務學習和負反饋的深度召回模型

基于行為序列的深度學習推薦模型搭配高性能的近似檢索算法可以實現(xiàn)既準又快的召回性能,如何利用這些豐富的反饋信息改進召回模型的性能

張帆博士與Yiannis Demiris教授團隊提出高效的機器人學習抓取衣服方法

機器人輔助穿衣通常人工的將衣服附在機器人末端執(zhí)行器上,忽略機器人識別衣服抓取點并進行抓取的過程,從而將問題簡化

百度算法大牛35頁PPT講解基于EasyDL訓練并部署企業(yè)級高精度AI模型

百度AI開發(fā)平臺高級研發(fā)工程師餅干老師,為大家系統(tǒng)講解企業(yè)在AI模型開發(fā)中的難點,以及針對這些難點,百度EasyDL專業(yè)版又是如何解決的

Technica公司發(fā)布智能霧計算平臺技術白皮書

SmartFog可以輕松地將人工智能分析微服務部署到云、霧和物聯(lián)網(wǎng)設備上,其架構支持與現(xiàn)有系統(tǒng)的靈活集成,提供了大量的實現(xiàn)方案,要用下一代人工智能算法來彌補現(xiàn)有解決方案的不足。
 
資料獲取
新聞資訊
== 資訊 ==
» 人形機器人未來3-5年能夠?qū)崿F(xiàn)產(chǎn)業(yè)化的方
» 導診服務機器人上崗門診大廳 助力醫(yī)院智慧
» 山東省青島市政府辦公廳發(fā)布《數(shù)字青島20
» 關于印發(fā)《青海省支持大數(shù)據(jù)產(chǎn)業(yè)發(fā)展政策措
» 全屋無主燈智能化規(guī)范
» 微波雷達傳感技術室內(nèi)照明應用規(guī)范
» 人工智能研發(fā)運營體系(ML0ps)實踐指
» 四驅(qū)四轉(zhuǎn)移動機器人運動模型及應用分析
» 國內(nèi)細分賽道企業(yè)在 AIGC 各應用場景
» 國內(nèi)科技大廠布局生成式 AI,未來有望借
» AIGC領域相關初創(chuàng)公司及業(yè)務場景梳理
» ChatGPT 以 GPT+RLHF 模
» AIGC提升文字 圖片滲透率,視頻 直播
» AI商業(yè)化空間前景廣闊應用場景豐富
» AI 內(nèi)容創(chuàng)作成本大幅降低且耗時更短 優(yōu)
 
== 機器人推薦 ==
 
迎賓講解服務機器人

服務機器人(迎賓、講解、導診...)

智能消毒機器人

智能消毒機器人

機器人底盤

機器人底盤

 

商用機器人  Disinfection Robot   展廳機器人  智能垃圾站  輪式機器人底盤  迎賓機器人  移動機器人底盤  講解機器人  紫外線消毒機器人  大屏機器人  霧化消毒機器人  服務機器人底盤  智能送餐機器人  霧化消毒機  機器人OEM代工廠  消毒機器人排名  智能配送機器人  圖書館機器人  導引機器人  移動消毒機器人  導診機器人  迎賓接待機器人  前臺機器人  導覽機器人  酒店送物機器人  云跡科技潤機器人  云跡酒店機器人  智能導診機器人 
版權所有 © 創(chuàng)澤智能機器人集團股份有限公司     中國運營中心:北京·清華科技園九號樓5層     中國生產(chǎn)中心:山東日照太原路71號
銷售1:4006-935-088    銷售2:4006-937-088   客服電話: 4008-128-728