跳到主要內容
 

技術論壇

主題:Amazon的"非接觸式的生物辨識系統",手掌辨識新專利有多神奇?

2020/02/25zhoujieren8

333 5 0


辨識技術類(影像、圖片、臉部識別等) 手掌辨識生物辨識AmazonGo

前陣子聽到身旁的幾個研究夥伴在討論Amazon的"非接觸式的生物辨識系統"具說能夠捕捉手上最最微小的紋路甚至能夠捕捉皮膚裡面的血管來辨識,但是這是真的嗎?請問有大大能跟我解釋Amazon的手掌辨識新專利到底厲害在哪嗎?


5則留言

2020/02/26omnixri

0


「非接觸生物(視覺型)辨識系統」已存在數十年,其中「人臉辨識(包含2D,3D)」是最為人熟知的,也是近年來最熱門領域之一。除此之外,像是指紋、掌紋、指靜脈、掌靜脈、臉(頰)靜脈、虹膜辨識等技術也都可歸類在此一領域,而這些技術發展也都超過二十年以上,算是成熟技術,許多公司門禁系統早就使用指紋來進行辨識。

最近AMAZON推出的掌紋辨識系統主要結合兩個部份就是可見光偵測掌紋(表皮層)部份及紅外光偏光偵測靜脈(真皮層)部份。這兩項技術由來已久,只是AMAZON將其整合在一起並使用目前AI相關技術輔助,使其誤判率更低,期望未來能取代刷臉付款問題,並解決人臉辨識帶來的個人隱私問題。

相關新聞及圖片可參考:結帳只要0.3秒!亞馬遜手掌支付來了,不刷臉,刷手就能付錢

 


2020/02/26omnixri

0


皮膚主要分成表皮層、真皮層及皮下組織,而微血管及小靜脈血管位於真皮層及皮下組織間。一般可見光只能看到表皮層,而在光源上加上垂直偏振濾光片,在攝像頭上加上水平偏振濾光片就能去除表皮層雜亂反光而看到真皮層內容。若再加上紅外光,則更容易看到靜脈,這個的作法普遍用在指靜脈、掌靜脈甚至臉頰靜脈(活體)身份辨識中。

不過為什麼這樣的技術不易普及,主要有一個麻煩處,就是在不同天氣情況下,靜脈及微血管組織可能反應會不同。冬天時手腳冰冷血液流動情況不佳,就像枯水期的河流一樣,導致原先記錄的特徵(分叉點)可能差異太多不易辨識。

另外目前人臉辨識有大量的公開或付費的資料庫可供人工智慧系統進行訓練及學習,但掌紋部份則較難大量收集及訓練,所以對於後續要進入普及階段可能還有好一段路要走。

 


2020/02/26laisan86

0


這種技術其實在以往也有, 早期在生醫電子議題很夯的時候, 就有不少人發想過! 事實上, 人身上的指紋、掌紋就已經很久以前被用來做身分識別用, 目前比較先進的除了虹膜外, 就是像四肢裡面的血管分布來辨識. 也因此不只Amazon啦~~像NEC大約八年多前也推出過『指靜脈辨識器』

道理主要是利用近紅外光(Near IR)來當作相機一樣拍攝人體的靜脈分布圖, 其實也是流行一陣子囉, 像是這篇期刊:

https://www.researchgate.net/publication/308128095_A_Review_of_Finger-Vein_Biometrics_Identification_Approaches

主要的原理還是基於靜脈血液是處於缺氧狀態, 所以當紅外線照射缺氧的血液中的血紅素後, 紅外線會被吸收, 這樣就能像是用很多點描繪圖像的道理一樣, 把手指的靜脈分布圖給畫出來了!

我是不知道Amazon那專利的原文在哪邊, 不過可以告訴版主跟各位, 大約10多年前日本Hitachi就有推廣過類似的方案, 然後運用在提款機上, 輔助提款的人除了卡片以外的身分識別

 

像是實作來講, 目前由於半導體技術的進步, 這類靜脈圖像掃描裝置, 還可以跟Arduino結合, 當成一個類似Shield那樣用:

https://www.researchgate.net/publication/319156018_Design_of_Finger-vein_Capture_Device_with_Quality_Assessment_using_Arduino_Microcontroller

版主或哪位大大想自幹為王, 歡迎哪! 不過我也找到坊間好比Raspberry Pi就已經有推出紅外線照相機了, 直接買來就可以開幹了!

https://www.raspberrypi.org/products/pi-noir-camera-v2/

Hackster.io還有詳細說明哩:

https://www.hackster.io/1ibrahimirfan/low-cost-palm-vein-authentication-system-74e917

laisan86 2020/02/26 0



2020/03/04bioasura

0


看到專利裡面有一張這樣的說明, 在概念上似乎也是針對手掌透過元件掃描手掌之後, 透過所採集到的訊號所呈現的結果去作為辨識的依據, 在傳統上, 其實只要能夠變成訊號有變化的結果, 例如X光(手掌的醫學影像), 或是各種不同的零件所發射波長所產生的穿透後被遮蔽的結果的訊號, 最後透過訊號的大小進行加成, 就可以產生一張這樣的圖像(至於用什麼零件, 用什麼波長, 就看需要穿透的程度

得到訊號以後, 就可以轉換成圖像辨識的方式來進行後面的處理與分析.

 

感覺在專利的執行上反而是如何的進行血管與掌紋形式相關演算法的成熟度, 或許是未來的重點.

 

PS:在網路上搜尋後來看到了這一篇文章, 感覺相關技術已經相對過去成熟很多, 版上有大大提到可以買相關的零件來掃描手掌, 自己試試看能否實作出來, 感覺這是個很有趣的題目, 作為身分識別的應用蠻有趣的

 


2020/03/04bioasura

0


 

相關的產品看起來日趨成熟, 例如 "富士通劃時代新技術---手掌靜脈辨識系統 為何生物辨識即將成為趨勢?" (https://www.fujitsu.com/tw/solutions/business-technology/security/palmsecure/), 摘錄部份的文字

"眼睛虹膜、指紋等這些人體辨識卻容易被仿冒且取得,手掌靜脈辨識獨一無二。富士通手掌靜脈辨識是一種高安全的生物辨識技術。它的運用原理是使用近紅外線感應器取得手掌靜脈的分佈圖,儲存樣板,進而在電腦中建立每一個人獨特的手掌靜脈資料庫。透過電腦登錄每個人的手掌靜脈資料,可以從電腦裡面做刪除與管理。(非接觸性感應器掃描手掌靜脈影像) 取得靜脈近紅外線影像 在其他需要身份辨識的場所例如健身房、俱樂部、三溫暖等需要會員卡管制進出的地方"

 

醫院的開刀房,因為不需要碰觸感應器,開刀房的門禁可以透過電腦管理,所以可以減少醫生走錯開刀房的情況。國外的實例是病人的病歷資料中已經有手掌靜脈的資料記錄,如果發生意外等送入醫院急救的情況發生時,在無法辨識病人的身分時,可以透過手掌靜脈的資料來查出該病人的身分,

有人天生沒有指紋,指紋因為外傷改變了無法辨識,帶著手套無法辨識,手指髒掉了無法辨識、感應器經常被觸碰會降低壽命等等,必須接觸感應器有衛生上的問題等等。手掌靜脈辨識就沒有這些問題。根據統計,每一千萬人中只有八個人手掌靜脈分布圖會是相似的,他的精確性高達百分之九十九點九。

 

不需直接接觸感應器,既衛生又安全,容易被大眾接受,舉例來說,在傳染病流行的時間內,這種非接觸性的感應方式是最安全的,甚至在醫院的開刀房,醫生都可以戴著外科手套通過感應進行身分認證。"

 

上面這些內容看起來似乎確實好處多多, 特別在面對武漢病毒疫情的同時, 似乎有許多有趣的應用 :D

 

 


最新發表
TWCC「台灣AI雲」都是哪些人會使用呢?
台灣第一座國家級AI雲端服務平台,TWCC(台灣AI雲),已於2019年10月起正式對產業界提供服務,但是到底是哪些人會使用到這個超級專業的平台呢?
google map的單車模式,是如何挑選屬於腳踏車的路線?
Google 前陣子宣布正式在台推出地圖單車模式,為單車族提供更多更便利的交通導引,宣稱不再需要交叉參考機車或步行模式,好奇系統是如何挑選只適合腳踏車行走的安全路線?
流行語彙
請問是否有機會先了解這個題目之“流行語彙”呢?
AI能夠如何降低交通事故發生率?
馬路如虎口!國內常會看到行人或騎士因位於駕駛的視線死角進而釀成悲劇的新聞,如今AI不斷進步,有沒有辦法用來避免交通事故的發生呢?
Google Map預測到達時間的功能原理和資料庫從哪來?
越來越多開車族使用Google Map來取代汽車內建的導航系統,除了操作介面熟悉之外,更多人使用Google Map的原因是因為Google Map能避開塞車路段,提供最佳路徑的建議,並準備的預估開車的到達時間,這是怎麼辦到的呢?

熱門發表
如果提供影像辨識的訓練資料不足,AI電腦視覺技術是不是就派不上用場了?
目前深度學習很火,從醫療、零售、倉儲、工業到監控等,好像各種影像辨識都能用到,但往往在一個地方卡關,那就是沒有足夠大量且有代表性的資料提供"訓練",有沒有可能用少量資料來達成好的辨識效果呢?
Time is money!如何讓製程最佳化、讓生產更簡單?
從網路時代到物聯網興起,工業 4.0 強調自動化與生產線聯網功能,而新一代的智慧工廠發展,則更仰賴邊際運算、AI 和數據分析。然而,究竟要如何讓製程最佳化,使得生產速度提升呢?
【解題建議】利用OpenPose來解決骨架(姿態、行為)分析
此次出題有很多項目和姿態(行為)分析有關(如下所示),而其根本就是要先找出人的骨架,再加上時間序列來分析骨架各特徵點的位移,進而判定使用者的動作(類型)。 【華碼數位】 體適能動作與姿勢辨識:以影像分析運動者姿態。 【宸訊科技】 利用動態影像辨識技術完成對農民於田間作業之行為分類與分析並能結合AI技術、配合專家互動,持續調整分類學習精準度:從串流影像中分析農業作業姿態(行為) 。 【集思動力】 iSEM多裂肌脊椎運動AI體況分析應用:透過影像、視頻分析人體動作姿態是否滿足特定位置、角度。 【百一電子】 AI電腦視覺辨識男生/女生的情緒與動作事件 :透過視頻分析十六種動作行為。 【良品嚴選】 客戶輪廓分析與服務人員及時輔助系統:從視頻分析客戶在店面行為以提供智能零售。 【良品嚴選】 線上連結線下新零售之AI分析:從視頻中分析行銷手段是否改變消費者行為。 【艾爾塔科技】 線下零售數據消費者行為洞察與全通路數據整合:透過人流資訊分析及預測消費者行為。 【卡訊電子】 智慧教室語音與影像偵測數據AI分析:建立語音、影像辨識老師、學生行為以增進學習效益。 而在開源技術中以CMU的OpenPose最為知名,包含有身體、頭(臉部)、手等部位,有興趣的朋友可以參考一下 https://github.com/CMU-Perceptual-Computing-Lab/openpose
請問,「老闆來了!」偵測器該怎麼用開源AI做到?
小弟有個問題來請教AIGO社群的大大們,我有個有點Crazy的點子,想在老闆在我的座位附近出現時,馬上在電腦前跳出警示訊息,當然,我可沒在做壞事....XD,只是想有些心理準備,你知道的~~ 當然,只辨識出老闆來了沒對各位大大應該挑戰度太低,那可否再辨識出老闆現在的心情好不好呢? 不知能否推薦開源又好上手的自架作法呢?
「魚兒魚兒水中游」,有辦法辨識魚缸中魚的種類、數量的變化,甚至是活動力嗎?
最近在搞魚菜共生,想用"聰明"的方法來觀察魚缸中魚兒的數量變化(有沒有死魚),再與水質狀況(如含氧量)做關聯,想用深度學習與影像辨識來解決這問題,甚至進一步分析出魚的個別及群體活動力,不知各位大大有沒有相關的經驗或作法可供參考呢?

主題分類