Google推出Move Mirror趣味AI網(wǎng)站,可在瀏覽器中根據(jù)人體動作即時搜圖
從AlphaGo到猜畫小歌,Google一再向我們展示著人工智能的神通廣大,前段時間Google又推出一個新的AI實驗網(wǎng)站 Move Mirror 。
Move Mirror是一個人工智能實驗,通過移動讓你以一種有趣的新方式來探索圖像,當你在攝像頭前移動時,Move Mirror會通過你的實時動作判定你的人體姿勢,與數(shù)百張在世界各地做類似姿勢的人的圖像相匹配,篩選出與你的姿勢最相近的圖像。你甚至可以捕獲做一個GIF圖,與你的朋友分享它。
大概的運作原理是:它會利用PoseNet來鏡像圖像中人體姿勢的關(guān)節(jié)對應(yīng)位置,分析后從有80000張素材的數(shù)據(jù)圖庫中對比出與你姿勢最接近的圖像,而這個過程僅僅需要15ms。并且搜索結(jié)果會即時比對隨時變更。
這這要歸功于TensorFlow.js,這是一個允許你在瀏覽器中運行機器學(xué)習(xí)項目的Javascript庫。通過將PoseNet移植到TensorFlow.js,任何擁有配備好網(wǎng)絡(luò)攝像頭的PC或手機的人都可以在Web瀏覽器中體驗和使用這項技術(shù)。關(guān)于隱私,當PoseNet由tensorflow.js驅(qū)動時,這就意味著姿態(tài)估計直接發(fā)生在瀏覽器中,你的圖像不會被儲存或發(fā)送到服務(wù)器,所有的圖像識別都在本地進行。所以你可以放心去做一些看著很搞笑或有點蠢的動作。
上段說到PoseNet這是一個由劍橋大學(xué)開發(fā)的姿態(tài)估計開源工具,允許任何Web開發(fā)人員完全在瀏覽器中進行基于身體的交互,不需要特殊的相機或C++/Python技能,這是非常先進的姿勢估計模型,即使是一些模糊,低分辨率,黑白的圖片,也可以從圖像數(shù)據(jù)中提供高度準確的姿勢數(shù)據(jù)。PoseNet可以通過簡單易獲取的Web API降低了姿態(tài)估計的入門門檻。
姿態(tài)匹配和搜索是Move Mirror面臨的難點。
PoseNet在面部和身體上檢測17個姿勢關(guān)鍵點。每個關(guān)鍵點都有三個重要的數(shù)據(jù):(x,y)坐標位置(表示PoseNet發(fā)現(xiàn)該關(guān)鍵點的輸入圖像中的像素位置)和一個置信度得分(PoseNet對猜測的正確程度有多大)。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風(fēng)翻身?