一文教你使用Python+OpenCV實現(xiàn)打乒乓球游戲
CodeBullet是我最喜歡的YouTuber之一,他曾經(jīng)嘗試創(chuàng)建一個人機對戰(zhàn)的乒乓球游戲,但遺憾的是,對于他的成果沒有對計算機視覺有太大影響。他是個很幽默及技術(shù)很強的人,如果你考慮閱讀這篇文章的其余部分,我強烈建議你觀看他的視頻。
人機對戰(zhàn)的乒乓球游戲似乎是一個非常有趣且簡單的任務(wù),所以我也想嘗試一下。在這篇文章中,我將概述一些我對該項目研究過的一些因素,如果你希望在任何類似的項目上工作,這些因素可能會有所幫助。使用計算機視覺的好處在于我可以使用已經(jīng)構(gòu)建的游戲來處理圖像。話雖如此,我們將使用在ponggame.org上且CodeBullet相同的游戲版本。它具有2人模式,因此我可以與自己的AI對抗;我做到了,這確實很難……
捕捉屏幕第一件事就是捕捉屏幕。我想確保我的幀速率盡可能快,為此我發(fā)現(xiàn)MSS是一個很棒的python包。有了它,我很容易就達到60幀/秒的最高速度,如果使用PIL,則我只能得到大約20幀每秒的速度。
為了簡單起見,我們需要定義paddle的位置。我們可以使用幾種不同的方法來完成,但我認為最簡單的方法是對每個Paddle的區(qū)域進行遮罩,然后運行連接的組件來找到Paddle對象。
下面是一段代碼:def get_objects_in_masked_region(img, vertices, connectivity = 8): ''':return connected components with stats in masked region [0] retval number of total labels 0 is background [1] labels image [2] stats[0] leftmostx, [1] topmosty, [2] horizontal size, [3] vertical size, [4] area [3] centroids ''' mask = np.zeros_like(img) # fill the mask cv2.fillPoly(mask, [vertices], 255) # now only show the area that is the mask mask = cv2.bitwise_and(img, mask) conn = cv2.connectedComponentsWithStats(mask, connectivity, cv2.CV_16U) return conn在上面,“vertices”只是定義遮罩區(qū)域的坐標列表,一旦在每個區(qū)域內(nèi)有了對象,我就可以得到它們的質(zhì)心位置或邊界框,但需要注意的一點是OpenCV將背景作為任何連接的組件列表中的第0個對象,因此在本例中,我總是獲取第二大的對象,結(jié)果如下——右邊綠色質(zhì)心的球拍是玩家的。
移動paddle現(xiàn)在我們有了輸出,我們還需要一個輸入,為此我求助于一個有用的包和其他人的代碼。它使用ctypes來模擬鍵盤按下,在這種情況下,游戲是用“k”和“m”鍵來玩的。我這里有掃描碼。在測試了它只是隨機上下移動后,我們就可以開始跟蹤了。乒乓球檢測下一步是識別并跟蹤乒乓球,同樣,這也可以用幾種方法來處理——其中一種方法是通過使用模板進行對象檢測,但是我再次使用了連接的組件和對象屬性來完成檢測,即乒乓球的區(qū)域,因為它是唯一具有尺寸的對象。我知道每當(dāng)乒乓球穿過或碰到其他白色物體時,我都會遇到誤檢問題,但我也同樣認為只要我能在大多數(shù)時間里追蹤到它,那么這一切都沒問題,畢竟它是直線運動的。如果你看下面的視頻,你會看到標記乒乓球的紅色圓圈是如何閃爍的,導(dǎo)致這種閃爍的原因是因為它只在每2幀中檢測一次。
反彈預(yù)測的光線投射到這一步,我們已經(jīng)有了一個可工作的人工智能。如果我們只是移動球員的球拍,使其處于與乒乓球相同的y軸位置,它的效果是相當(dāng)不錯的,然而當(dāng)乒乓球得到良好的反彈時,因為球拍太慢了,會遇到跟不上的問題。所以我們需要預(yù)測乒乓球的位置,而不是僅僅移動到當(dāng)前的位置。下面是兩種方法的比較。
差別并不大,但如果選擇了正確的人工智能,這絕對是一場更穩(wěn)定的勝利。首先我為乒乓球創(chuàng)建了一個位置列表,為了公平起見,我把這個列表的長度控制在5個,因為列表太長的話,需要花費更長的時間才能發(fā)現(xiàn)它改變了方向;在得到位置列表后,我使用簡單的矢量平均法來平滑并得到方向矢量——如綠色箭頭所示;然后吧它標準化成一個單位向量,乘以一個長度以方便可視化。投射光線只是這個的延伸——使前向投影變長。之后我檢查了未來的位置是否在頂部和底部區(qū)域的邊界之外,如果是這樣的話,它只是將位置投影回游戲區(qū)域了;對于左側(cè)和右側(cè),它計算出與paddle的x位置相交的位置,并將x和y位置固定到該點,這樣可以確保paddle指向正確的位置。如果沒有這一點,它通常會走得太遠。下面是定義光線的代碼,該光線可以預(yù)測乒乓球的未來位置:def pong_ray(pong_pos, dir_vec, l_paddle, r_paddle, boundaries, steps = 250): future_pts_list = [] for i in range(steps): x_tmp = int(i * dir_vect[0] + pong_pos[0]) y_tmp = int(i * dir_vect[1] + pong_pos[1])
if y_tmp > boundaries[3]: #bottom y_end = int(2*boundaries[3] - y_tmp) x_end = x_tmp
elif y_tmp < boundaries[2]: #top y_end = int(-1*y_tmp) x_end = x_tmp else: y_end = y_tmp
##stop where paddle can reach if x_tmp > r_paddle[0]: #right x_end = int(boundaries[1]) y_end = int(pong_pos[1] + ((boundaries[1] - pong_pos[0])/dir_vec[0])*dir_vec[1])
elif x_tmp < boundaries[0]: #left x_end = int(boundaries[0]) y_end = int(pong_pos[1] + ((boundaries[0] - pong_pos[0]) / dir_vec[0]) * dir_vec[1])
else: x_end = x_tmp
end_pos = (x_end, y_end) future_pts_list.a(chǎn)ppend(end_pos)
return future_pts_list在上文中,還沒說明確定paddle對目標的左或右位置的截距的計算方法,該計算過程我們基本上是通過相似三角形來實現(xiàn)的,圖片和方程如下所示。我們計算在邊界中給定的paddle的x位置截距之后,我們就可以計算出乒乓球?qū)⒁苿佣噙h了,并將其添加到當(dāng)前的y位置。
paddle雖然看起來是筆直的,但實際上有一個彎曲的反彈面,也就是說,如果你用球拍向兩端擊球,球會反彈,就像球拍有角度一樣,因此我允許球拍擊中邊緣,這增加了人工智能的攻擊性,使乒乓球四處飛舞。結(jié)論盡管我的實現(xiàn)方法是為這種特定的乒乓球有限實現(xiàn)而設(shè)計的,但相同的概念和代碼也可以用于其它問題中——只需要改變一些預(yù)處理步驟。我們也可以使用另一種方法來實現(xiàn)該項目,即通過強化學(xué)習(xí)或簡單的conv-net等方法,但我比較喜歡這種經(jīng)典方法。因為使用經(jīng)典的方法,我不需要健壯的通用性或困難的圖像處理步驟。正如我提到的,本版本的乒乓球是2人對戰(zhàn)模式的,在游戲過程中我無法打敗我自己的AI…

最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風(fēng)翻身?