中文字幕在线视频第一页,黄色毛片在线看,日本爱爱网站,亚洲系列中文字幕一区二区

您當前的位置是:  首頁 > 資訊 > 文章精選 >
 首頁 > 資訊 > 文章精選 >

Google開源框架AutoFlip 實現(xiàn)視頻智能剪裁

2020-02-26 16:40:39   作者:編譯:鄭云飛 & Coco Liang    來源: LiveVideoStack   評論:0  點擊:


  Google宣布開源視頻剪裁框架AutoFlip,實現(xiàn)智能化自動裁剪視頻。
  隨著移動設(shè)備的進一步普及,越來越多的消費者選擇在移動設(shè)備上觀看視頻。據(jù)eMarketer2019年的數(shù)據(jù),美國消費者每天平均在移動設(shè)備上花費3小時43分鐘,比花在看電視上的時間還多了8分鐘,這也是人們第一次被發(fā)現(xiàn)花費在移動設(shè)備上的時間多于看電視的時間。
  然而,傳統(tǒng)的內(nèi)容生產(chǎn)設(shè)備制作的視頻大多數(shù)是橫屏(landscape)的,而移動顯示設(shè)備默認是豎屏的(portrait),這就導致橫屏內(nèi)容在豎屏設(shè)備上的播放體驗并不是很好。
  視頻裁剪是解決這個問題的方法之一。然而,人工的視頻裁剪是一件非常枯燥、耗時且精細的工作,普通人很難勝任。因此,誕生了許多智能視頻裁剪的算法,期望通過算法可以自動、快速地完成優(yōu)質(zhì)的視頻裁剪。GoogleAI13日在官博宣布開源框架AutoFlip,就是實現(xiàn)影片智能化自動剪裁的一個解決方案。
  AutoFlip是一個基于MediaPipe框架的智能視頻剪裁工具。它可以根據(jù)指定的寬高比,對影片內(nèi)容進行分析,制定最佳裁剪策略,并自動輸出相同時長的新視頻。
  左:原始視頻(16:9)。中:使用靜態(tài)的居中裁剪(9:16)重新構(gòu)圖。右:使用AutoFlip(9:16)重新構(gòu)圖。通過檢測感興趣的目標物,AutoFlip可以避免裁剪掉重要的內(nèi)容。
  其中,MediaPipe是一款由GoogleResearch開發(fā)并開源的多媒體機器學習模型應(yīng)用框架。目前,YouTube、ARCore、GoogleHome以及Nest等,都已經(jīng)與MediaPipe深度整合。
  我們也很幸運地聯(lián)系到了MediaPipe團隊,對有關(guān)AutoFlip移動端的適用性提出了一些疑問,其中,軟件工程師@jiuqiant表示,根據(jù)自己的經(jīng)驗,由于MediaPipe本身是跨平臺框架,因此AutoFlip可以輕松移植到Android和iOS。AutoFlip演示依賴于MediaPipe的對象檢測和面部跟蹤子圖,它們都是Android和iOS上MediaPipe的實時應(yīng)用程序。因此,AutoFlip在移動平臺上也應(yīng)具有類似的性能。
  AutoFlip為智能視頻剪裁提供了一套全自動的解決方案,它利用先進的目標檢測與追蹤技術(shù)理解視頻內(nèi)容,同時會檢測視頻中的場景變化以便分場景進行處理。在每一個場景中,視頻分析會先分析場景中的顯著性內(nèi)容,然后通過選擇不同的相機模式以及對這些顯著性內(nèi)容在視頻中連成的路徑進行優(yōu)化,從而達到場景的裁剪與重構(gòu)。

 如圖所示,AutoFlip剪裁影片有三個重要的步驟:鏡頭邊界檢測、影片內(nèi)容分析以及重新取景。
  如圖所示,AutoFlip剪裁影片有三個重要的步驟:鏡頭邊界檢測、影片內(nèi)容分析以及重新取景。
  1)鏡頭邊界檢測
  場景或者鏡頭是連續(xù)的影像序列,不存在任何剪輯。為了偵測鏡頭變化的發(fā)生,AutoFlip會計算每一幀顏色的直方圖,并與前一幀進行比較。當直方圖在一個歷史的窗口中以明顯不同于以往的速率變化時,則表示鏡頭切換。為了對整個場景進行優(yōu)化,AutoFlip會在得出剪輯策略前緩存整個視頻。
  2)鏡頭內(nèi)容分析
  Google利用基于深度學習技術(shù)的檢測模型在視頻幀中找出有趣、突出的內(nèi)容,這些內(nèi)容通常包括人和動物。但根據(jù)應(yīng)用程序不同,其他元素也會被檢測出來,包括文本和廣告logo、運動中的球和動作等。

 左:體育錄像中的人物檢測。右:兩個臉部框(“核心”和“所有”臉部標識)
  人臉和物體檢測模型通過MediaPipe整合到AutoFlip中,這是在CPU上使用了TensorFlowLite。這個架構(gòu)使得AutoFlip的可擴展性更大,開發(fā)者們也因此可以便捷地為不同的使用場景和視頻內(nèi)容添加新的檢測算法。
  3)重新取景
  在確定每一幀上感興趣的目標物之后,就可以做出如何重新剪裁視頻內(nèi)容的邏輯決策了。AutoFlip會根據(jù)物體在鏡頭中的行為,自動選擇靜止、平移或追蹤等最佳取景策略。其中,追蹤模式可以在目標對象在畫面內(nèi)移動時對其進行連續(xù)和穩(wěn)定的跟蹤。
  如上圖所示,第一行是AutoFlip根據(jù)幀級的邊界框追蹤到的相機路徑,第二行是平滑后的相機路徑。左側(cè)是目標對象在畫面中移動的場景,需要一個追蹤相機路徑;右側(cè)是目標物體停留在近乎相同位置的場景,一個固定攝像機即可拍攝在整個場景中全部時長的內(nèi)容。
  AutoFlip有一個屬性圖,可以提供最佳效果或自定義需求的剪輯。如果發(fā)現(xiàn)剪輯出來的鏡頭無法覆蓋整個影片區(qū)域的情況時(例如目標在某一幀視頻中顯得太大),AutoFlip會自動切換到相對不那么激進的策略上。它會使用信箱效應(yīng),在保持原始視頻尺寸的同時用黑邊模式填充影片,使畫面看起來更自然。
  隨著人們用來觀看視頻的設(shè)備越來越多樣化,讓任何視頻格式都能快速適應(yīng)不同屏幕比例的能力也顯得越發(fā)重要。而AutoFlip能夠快速地自動剪輯影像,適合在各種設(shè)備上播放。
  和其它機器學習算法一樣,AutoFlip的性能會隨著目標檢測等能力的提升而大大加強,尤其是衍生出來的能力,例如采訪鏡頭中的說話人檢測或動漫中的動物臉檢測等等。
  Google稱接下來會繼續(xù)改進AutoFlip,尤其是針對影片前景文字或圖標因為重新取景而被裁掉的情況。同時,Google也希望AutoFlip能進一步融合自然語言處理等技術(shù),從而實現(xiàn)更合理的視頻智能剪裁。
  References:
  https://insights.digitalmediasolutions.com/articles/digital-mobile-dominate
  https://github.com/google/mediapipe/issues/471
  最后一個小小的tips,如果大家有針對文章內(nèi)容的具體問題,歡迎在留言區(qū)互動,我們會努力將你的問題反饋給相應(yīng)專業(yè)領(lǐng)域的技術(shù)專家,以便大家能夠共同參與討論。
  原文鏈接:https://ai.googleblog.com/2020/02/autoflip-open-source-framework-for.html
【免責聲明】本文僅代表作者本人觀點,與CTI論壇無關(guān)。CTI論壇對文中陳述、觀點判斷保持中立,不對所包含內(nèi)容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。

專題

CTI論壇會員企業(yè)

武清区| 中牟县| 清徐县| 水城县| 沙田区| 泉州市| 多伦县| 临安市| 库伦旗| 新巴尔虎右旗| 昌乐县| 集安市| 上饶县| 儋州市| 桑日县| 天气| 蓬莱市| 叶城县| 洱源县| 南江县| 泾阳县| 和田市| 天峻县| 临泉县| 辉南县| 沙洋县| 孝昌县| 五寨县| 沽源县| 新乡市| 甘孜县| 武胜县| 邢台县| 芜湖县| 普定县| 南康市| 尖扎县| 龙泉市| 吴桥县| 开封县| 乳源|