![]() ![]() ![]() |
|
|
|
2023/05/24 07:18:10瀏覽951|回應0|推薦7 | |
有讀者到我的雲端車牌辨識網站先下載這張我自己選的封面照片,再上傳辨識居然會失敗?我自己試的結果是如下圖,ATN居然變成IN?真的糗大了!原因應該是我最後更新的那個版本剛好被這張影像的某個弱點點到死穴中招了!我卻沒有自己重複確認,變成範例影像辨識錯誤,自打嘴巴了! 我立即用最新的辨識核心辨識是沒問題的!也立即更新網站的辨識核心了!其實我覺得網站上的較舊版本也應該會OK的?就多花了一點時間研究一下可能辨識失敗的原因?讀者當然不會誣賴我,老程式也不會騙我的!事出必有因,研究清楚之後,就可以前事不忘,後事之師了嘛! 經過偵查,主要戰犯是車牌有反光,讓七個字元的對比度(看起來有多黑?)差異頗大,最左邊的A字對比度只有最右邊3字的一半!次要戰犯是「這是一輛黑得發亮的黑車」!車身黑的程度還超過反光字元的「黑度」!這就是論語中說的:惡紫奪朱效應了!字元看來就會更不清楚了!看看車牌局部的灰階與二值化圖就知道了! 很明顯的,按照基本簡單的OCR技術做目標切割時,ATN三個字都是相當破碎難以完整被確認為獨立字元的!最終要正確辨識其實會動用到不少例外補救的演算法,稍一不慎就會辨識錯誤的!所以這不是一張很容易辨識成功的案例。當然以目前我的水準早已不是問題了!我也立即更新我的網站辨識核心,糗事不會再出現了! 很有趣也是讓我很困擾的一個物理現象,就是前述的「惡紫奪朱」了!黑車的烤漆常常比車牌字元的黑漆顯得更黑!加上一點反光就變成車牌辨識的難題了!如果我不是用OCR,而是使用CNN(類神經網路)會比較容易嗎?還是一樣的!他們找車牌需要鎖定的「特徵」基本上還是亮度、對比與顏色差異等等。 OCR的優勢是:如上案例我可以輕易鎖定7533幾個字元,我已經可以確認此地「有」車牌了!接下來我可以像拼圖一樣,依照已知四個字元的大小,往左右空間外插嘗試湊齊碎片目標。所以即使ATN三字呈現破碎不完整的狀態,我依舊可以重組它們,最終認出是甚麼字了! 但如果我是用CNN呢?他們不會做目標切割,也就不知道7533幾個獨立目標字元的存在,少了好多找到歪斜模糊車牌正確位置的關鍵資訊!通常是必須找更多其他資訊達到目的,所以他們是極為耗費運算資源的低效率演算法!也因此非得動用好多GPU或周邊設備做邊緣運算等等! 所以如果你假設CNN是比OCR先進的新技術?那就錯得離譜了!但是目前的影像辨識領域已經就是「惡紫奪朱」的狀態了!OCR是朱,CNN就是惡紫!對於影像辨識產業需要的辨識率、效能、技術穩定性與未來發展性,CNN其實沒有任何面向真的能超越OCR技術!卻已經被炒作成好像是影像辨識的主流與未來,OCR好像應該進博物館了? 因為前提錯了,所以近年影像辨識的需求壓力大增,但是研發進度反而變慢!主流已經應用廣泛的影像辨識產品,不但沒有因為CNN變得更好、更快或更準,反而因為其過度耗費資源的本質,使用ML、DL與CNN事實上變成多數有意研發公司的一個錢坑大災難!大家可以去調查我的說法! 其實OCR好像一直沒犯錯也深愛著你的糟糠之妻!她始終沒哪裡不好,也還是目前主流影像辨識產品使用的核心技術,不但沒有過時,還持續進化之中,我就是這個已被低估冷落流派的貢獻者與獲利者!惡紫奪朱卻迄今未有傑出表現的爛技術叫做CNN!希望大家都睜大眼睛驗證我的說法! |
|
( 心情隨筆|工作職場 ) |