網路城邦
上一篇 回創作列表 下一篇  字體:
為什麼計程車比較難辨識?請複習高中物理光學篇!
2019/08/17 11:43:33瀏覽1590|回應0|推薦6

看起來上面兩張車牌影像一般人會覺得辨識難度相差不多,甚至下方車牌有點彎曲應該比較困難。但是實際上在我的辨識軟體中,今天早上之前的版本,計程車的紅車牌是會辨識失敗的,下方車牌反而沒有問題。

為什麼?請大家仔細看!是不是覺得紅色的字比黑色的字較模糊?這是同一個場地拍的,攝影機的狀況也完全一樣,怎麼會清晰度有差?這其實是一個物理問題,影像的清晰與否就是物理上的焦距準確與否的結果,焦距準就很銳利,焦距跑掉就會模糊。

但是焦距這個物理量是與光線的折射率有關的!一般的數位影像是以RGB三原色組成,其中又以綠光佔了總亮度的大約一半,所以綠光最能代表環境亮度,我們做辨識都是以綠光為主體的,也因此當我們調好焦距時,通常結果是綠光最準,物理上的頻率與折射率與綠光差距較大的紅光焦距,就會變得比較不準了!

以影像表現的結果就是如前面兩張一樣,好像計程車車牌是用一百度的近視眼在看的!轎車車牌則是帶著準確度數的眼鏡看的!下面就是經過二值化之後的計程車車牌影像:

別說DF如膠似漆,連T也和他們沾在一起藕斷絲連,658三個字也是剛好因為模糊那麼一點點而串聯在一起。我的車牌辨識演算法面對兩字沾連的情況,通常還可以正確處理辨識成功,但是碰到三字以上的沾連,辨識成功率就有如買彩券了!

要同時讓計程車車牌與一般車牌同時都焦距準確可能是物理上的兩難,但是也很難對客戶交代說看起來差不多大小的車牌,為何計程車就常常辨識失敗?是你的軟體對紅光比較歧視嗎?據我所知,紅字車牌辨識率較差是所有車牌辨識軟體的通病,我不是特例!因為所有攝影機都是將綠光焦距對準,讓紅光略為失焦的!

硬體無法解決或需要太高成本的事,就只能在軟體上想辦法了!如上例中其實四處沾連有三處都是很輕微的,所以我增加了一個演算法,就是當發現紅色而且太胖的目標時,就嘗試去看此目標內是不是有這種藕斷絲連的特徵點?如果有就將此目標做連體嬰切割手術,或許TDF就可以分離成比較正常的字元目標,658也有機會完全切開,這樣就會變成不難辨識的狀況了!

這種紅車牌較難辨識的現象與原因我很早就觀察到,切割目標演算法也早想到了,但是有點怕副作用讓我的辨識流程不穩定,所以很審慎的沒有輕易加入主辨識流程。今天剛好有很好的幾個計程車車牌辨識失敗案例可以給我做實驗,就將這個演算法做出來了!只針對紅色過寬目標,應該就不會影響其他車牌的辨識流程了!所以以後我的軟體面對這種計程車就不會比一般車牌更難辨識了!

( 心情隨筆工作職場 )
回應 推薦文章 列印 加入我的文摘
上一篇 回創作列表 下一篇

引用
引用網址:https://classic-blog.udn.com/article/trackback.jsp?uid=yccsonar&aid=128572267