跳到主要內容
 
:::

技術論壇


當AI取代人力,在工廠方面究竟是誰會失業?
工廠從最早有自動化設備以來就開始討論人力的減少,工業4.0智慧工廠的概念推出後這個議題更是一發不可收拾。究竟隨著智慧工廠的發展,會有哪些人力被取代?減少多少的工作機會?
其他 智慧工廠

發文時間 2019/07/12 作者 slipknot

瀏覽次數2394 留言數量12 按讚次數0

是否進入解題實證是否在解題構想審查會議中當場宣佈?
請問參加解題構想審查會議結束時,當場並未得知是否要繼續進行解題實證階段,是否代表沒有進入實證階段? 或者說入選實證階段將事後通知?煩請指教
其他 解題程序問題

發文時間 2019/06/24 作者 waneyvin

瀏覽次數1346 留言數量1 按讚次數0

【AI暑期實習生 ∥ 熱情招募中】的公告日期, 比截止日期晚三天, 是不是有錯誤?
這個活動的公告日期, 比截止日期晚三天, 是不是有錯誤? ------------- https://aigo.org.tw/ai_apprentice/ 【AI暑期實習生 ∥ 熱情招募中】 作者: 管理員 2019-06-03 公告 ------------- 報名期間:即日起~2019/05/31(五)
其他

發文時間 2019/06/04 作者大頭照 None

瀏覽次數1314 留言數量1 按讚次數0

智慧轉型從出題開始
文、圖:廖憲正 @ 2019.06.03 在臺南市嘉南平原東部的山麓地帶有一座西拉雅國家風景區,名稱源自於昔日生活於此區的臺灣原住民西拉雅族。風景區內有著名的關子嶺、烏山頭水庫、曾文水庫等知名景點。在褚士瑩所著的「在西拉雅呼喊全世界:褚士瑩發現台灣之旅」中提及了許多居住在西拉雅這塊土地上人們的故事,包括堅持不灑農藥的有機小農、退休才返鄉種植咖啡豆的中年男子、特殊的窯文化...等等。 柴燒龍眼乾是其中一個書中提及即將失傳的手藝,書中提到了「烘焙最重要的是火候的控制,...每兩個小時要上來焙灶寮「巡火」、添柴火一次,以免焙灶溫度不平均,影響烘焙的品質。」對於如何控制焙灶的溫度,書中提到「因為炭火的焙灶,不像機器可以控制溫度,所以完全要憑老師傅手的細微觸覺跟多年來的經驗,來判斷窯裡龍眼的溫度是太冷還是太熱。」而在翻焙次數上則是「至於龍眼乾烘焙完成以前,到底需要翻焙幾次並不一定,全視果農以手攪動龍眼乾碰撞時發出的聲音或是取樣剝開龍眼乾視吃來決定。」 難以保存的內隱知識 因為烘製龍眼乾的工作實在太辛苦,幾乎每一個窯主都說自己將是最後一代,而那些老師傅的經驗實在太難歸納並以文字描述,因此都將面臨失傳的命運。然而,在這資料驅動的時代,這些累積的經驗與知識所內化成的直覺式行為或判斷,便是難以用文字或媒體記錄下來的內隱知識(Tacit Knowledge),相較於實際可說出或寫下來的外顯知識(Explicit Knowledge),即是非常適合使用人工智慧技術進行保存的知識內容。 圖一、內隱知識與機器學習模型關係圖 如圖一所示,我們透過五感(視覺、嗅覺、聽覺、味覺、觸覺)資訊來決定行動以及感知行動後的結果,隨著時間的累積,在特定五感資訊下進行行動會得到何種預期的結果將轉化為我們的內隱知識。而這樣的決策流程:五感資訊(輸入)→內隱知識→行動(輸出),便是非常典型的資料驅動系統。也就是說基本上我們本身就是透過大量資料(從出生開始)來學習如何與外界互動的一個系統,透過感知的五感資訊,經由內隱知識的推論,便會產生相對應的行動。 輸入輸出數位化:以PCB成品瑕疵檢測為例 為了將難以用文字或媒體記錄下來的內隱知識以機器學習方法建立模型保存下來,我們就需先將輸入(五感資訊)以及輸出(行動)轉換為數位資訊。以柴燒龍眼乾這個例子來說,控制焙灶的溫度是由老師傅手的細微觸覺來感覺是否需要添加柴火,在這裡手的細微觸覺也就是去感受灶的溫度,我們便可在窯的特定區域(老師傅感受溫度的地方)安裝溫度感測器(輸入數位化),連續地紀錄窯的溫度變化,並且在老師傅判斷需要添加柴火時,在溫度資料上進行標註(輸出數位化)。如此一來,我們便有了數位的輸入(連續的溫度數值)以及數位的輸出(溫度資料上的標註),接著就可以使用決策樹或是遞迴神經網路來建立根據窯的溫度來判斷是否添加柴火的模型。 表一、人工智慧出題操作表 為了讓上述內隱知識轉化為機器學習模型的過程易於操作,我特別設計了一張表格方便大家針對自身的問題進行剖析。如表一所示,第一列先將想要利用人工智慧技術來解決的問題中,人類是用何種感官訊號(輸入)做出何種行動(輸出)寫下來。如表二中提及傳統的PCB製造產線是以人眼檢查PCB成品是否存有缺陷,發現有缺陷便將該成品歸為不良品,而我們希望檢查的員工至少在100片有缺陷的成品中要檢查出95片。在第一列便可寫下是透過視覺(輸入)來檢出不良品(輸出),召回率要大於95%。 表二、「目檢PCB板來找出不良成品以降低廢料損失」人工智慧出題操作表 接著就可將人類的感知(輸入)轉換為數位化的輸入,在這個例子中,人是使用視覺來做為輸入,我們便可採用攝影機來取得同樣的PCB影像,只是這時的PCB影像成為了數位化的資料型態,而非在大腦視覺區上的電脈衝訊號。而在輸出上,我們希望最後的人工智慧系統可以偵測出不良品的影像,就像人一樣,希望在100片有缺陷的成品中至少要檢查出95片,因此,我們需求的人工智慧系統在輸出規格上,便為檢測出不良品影像召回率大於95%。所以在PCB不良品檢測這個例子上,我們的題目可為:使用PCB影像,偵測出不良品,達到召回率>95%。 界定內隱知識的範圍:以語音互動機器人為例 我們再以另一個語音互動機器人的例子來說明,假設有一餐廳希望開發一語音互動機器人置於餐廳門口用做招攬客人之用,餐廳期望使用這機器人後,可以增加30%的過路人成為餐廳消費者。然而,這樣的命題:「開發一語音機器人,增加30%過路人成為消費者」,裡面無法看出人工智慧技術是要學習何種的內隱知識。因此,我們就必須要繼續針對「增加過路客成為餐廳消費者,人是透過何種方式來達到目標」進行分析。 假想一位非常有經驗的店員,她/他熟知不同客人類型與飲食喜好的相關性,她/他通常會藉由觀察來對客人做初步分類,如單身、家庭、情侶等類型;再透過對話來找出客人對飲食口味的喜好,如飯、麵、吃不吃辣等喜好,在獲得這些客人喜好後,便可推薦餐廳相對應的餐點,吸引客人消費。因此,如上所述,如果我們希望開發一語音機器人可以達到增加過路客成為餐廳消費者這個目的,這個語音機器人就需要有兩種功能使得它可以做的像經驗豐富的店員:1. 透過觀察將客人分類,2. 透過對談得知客人對於飲食的喜好。因此,我們可以在表中第一列中填入人的輸入與輸出,如表三所示。 表三、「餐廳語音互動機器人」人工智慧出題操作表 而在第二列則寫下與人類感知相對應的數位化輸入,再將期望的系統輸出列出。因此我們可以看出想要開發這樣的語音機器人,實際上至少需要具備有兩項人工智慧功能,一是用視覺來判斷客人類型,二是透過問答來得知客人飲食喜好。所以我們在這個項目下,就有兩個人工智慧命題:1. 透過攝影機影像,辨識客人類型,正確率>90%。2. 透過語音問答系統辨識客人飲食喜好,正確率>90%。 最後我們再來看一下本文開頭所提到的柴燒龍眼乾工作,如果我們要以人工智慧技術來協助完成柴燒龍眼乾工作,便可為如表四所述的人工智慧命題。 表四、「柴燒龍眼乾」人工智慧出題操作表 出題即是解題 經濟部工業局在「AI智慧應用新世代人才培育計畫」中特別徵集產業AI題目,並邀請全國AI團隊來為產業解題。為了讓產業可以更加清楚現今人工智慧技術應如何應用於自身問題上,特別開設「出題工作坊」,希望可以協助台灣廠商加速理解與導入人工智慧技術,並將自身問題轉化為一個可以利用目前人工智慧技術解決的範疇內。俗話說:「問對問題便已解決了一半」。所以此次的「產業出題」雖名為出題,其實在出題的當下,就已經開始用人工智慧的思維來嘗試解決問題了。 出處:https://sites.google.com/site/hsienchengliao/artificial-intelligence/智慧轉型從出題開始?authuser=0
其他 出題工作坊

發文時間 2019/06/03 作者 hcliao

瀏覽次數1389 留言數量0 按讚次數0

【簡報分享】AIGO交流會#2_從OpenCV改版談開源影像辨識深度學習新玩法
感謝大家5/21晚上撥冗參加,此次很高興受AIGO主辦單位資策會及協辦單位MAKERPRO邀約,讓我有機會和大家分享「從OpenCV改版談開源影像辨識深度學習新玩法」。 本次演講主要包括: OpenCV簡介、OpenCV發展歷程、OpenCV模組簡介、執行平台及硬體加速方案、OpenCV深度學習模組、OpenCV與深度學習框架 OpenCV深度學習應用實例 影像分類、物件偵測、語義分割、影像著色、骨架姿態、文字偵測、人臉辨識 完整演講簡報請參考https://omnixri.blogspot.com/2019/05/aigo2opencv.html,如有任何建議歡迎在下方留言交流。
其他 AIGO交流會OpenCV

發文時間 2019/05/23 作者 omnixri

瀏覽次數1900 留言數量1 按讚次數0

我來解 "AI能源監控在物業管理上的解決方案" 的話, 我的解法
這類問題, 其實是可以透過收集歷史數據透過ANN以及基因演算法達到預測效果的 https://pdfs.semanticscholar.org/9a9e/838619bd4fecb882aade0c96a84dc59a2c6d.pdf
其他 AI能源監控在物業管理上的解決方案genetic algorithmANN

發文時間 2019/05/09 作者 laisan86

瀏覽次數1236 留言數量2 按讚次數0

三立 - 新聞關鍵字資料集是否有提供各新聞的
如題,請問提供的資料集是新聞本身? 還是有其他metadata 例如人工產生之關鍵字、被搜索流量等
其他 新聞關鍵字三立

發文時間 2019/05/08 作者 baseguard0426

瀏覽次數1537 留言數量2 按讚次數0

如何確認已與公司媒合
我們已經成立隊伍 在系統上選定題目 因我們選定兩家公司 沒在這次的媒合名單中(108年5月2日,5月3日) 後續我該作什麼??
其他

發文時間 2019/05/02 作者 AT

瀏覽次數1333 留言數量1 按讚次數0

邊緣計算平台大混戰誰家比較厲害
AIGO論壇開張,小弟也來共襄盛舉一下,把最近的一些心得和大家分享一下。如對我寫的文章有興趣的伙伴可到我的部落格https://omnixri.blogspot.com或在下方留言交流一下。 Nvidia Jetson Nano真的比Google Edge TPU厲害嗎? 最近Nvidia推出Jetson Nano AI開發板,瞬間刷爆各大人工智慧社群版面,害得我本來整理好了十幾個AI開發板的文章頓時失去貼出的動力,因為Jetson Nano的低價(US$99)及高性能(472GFlops)輾爆所有開發板,包括Coral Google Edge TPU。 Fig. 1 三大AI開發板(點擊圖片放大) 初步比較目前較夯的三大AI開發板Nvidia Jetson Nano, Coral Google Edge TPU, Intel (Movidius) Neural Compute Stick 2,如Table 1所示。嚴格說起來Intel的神經運算棒並無法單獨存在需要另外搭配有CPU的主機板,而樹莓派的算力太弱不足以稱為AI開發板,所以通常是把這兩者加在一起當成一組AI開發板,像Google AIY Vision Kit就是同類型的整合產品。 Table 1 AI開發板比較表(點擊圖片放大) 目前這些AI開發板並沒有通用的比較基準,傳統上可用每秒可執行多少浮點數運算(Float pre Second, FLOPS)或每秒執行多少運算(Opertions, OPS)來比較。一般GPU或NPU多半被設計來做矩陣運算用的,所以A*B+C本來須要兩道指令(乘法和加法)才能完成,通常會變成一道指令就可執行,所以若以OPS表示時,就會變成兩倍,這樣就會造成執行速度較快的錯覺。 在深度學習的計算上,除了大量的矩陣演算外,尚有許多數百萬甚至數億個參數須要來回存取,受限於記憶體速度及頻寬問題,常會造成不同模型計算上會有不同的性能表現。打個比方來說,若車子一直在高速公路上行駛,則跑車的表現一定輾爆一般轎車。但若車子不斷地上下交流道,那跑車就不一定勝過一般轎車太多了。另外相同的模型在不同框架(TensorFlow, Caffe, PyTorch…)或者經過特別的優化(壓縮、剪枝),甚至依據硬體特性而修正模型,那也有可能產生計算效能(速度)的差異。 由於Google Coral Edge TPU上市沒多久,官方及民間高手還沒有大量提出測試數據,所以TPU到底有多厲害僅能從Alasdair Allan發表的文章[1]一窺究竟。這次NVIDIA為了讓大家知道Jetson Nano有多優秀,特別製表比較三大AI開發板的性能(如Table 2所示),不過根據這些公開的數據[2]比較,反而透露了一個重要訊息,就是不要太相信廠商提出的算力大小,參考一下就好。為何如此說呢?以Nvidia Jetson Nano和Pi3+NSC2二組開發板來比較,理論上硬體算力應該是固定倍率的差異,但在不同模型(算法下)竟然可以從差2倍到25倍,更令人費解的是,在部份模型中Google Coral Edge TPU竟然勝過Nvidia Jetson Nano,這中間到底發生什麼事了?個人猜想應該是特定模型在特定框架下剛好滿足TPU的最佳計算方式,所以得到較好的表現,還請各路高手提出高見解惑。 Table 2 AI開發板算法性能比較表[2](點擊圖片放大) 不過不管誰家產品較為優秀,對於Maker而言,便宜又算力強大的AI開發板時代來臨了,以後就再也沒有藉口說算力太貴而無法做出好的作品了。 ps. 其實我在說自己啦,請勿對號入座! [1]https://blog.hackster.io/say-hello-to-google-coral-cdbb49183864?fbclid=IwAR0kZ4kALhB6k6MswazDLfmrZlT0xMeWjLFGw82MavugyzfuEYronOFmFv8 [2]https://devblogs.nvidia.com/jetson-nano-ai-computing/
其他 邊緣計算

發文時間 2019/04/13 作者 omnixri

瀏覽次數2466 留言數量1 按讚次數0

AI晶片如何評比效能
AIGO論壇開張,小弟也來共襄盛舉一下,把最近的一些心得和大家分享一下。如對我寫的文章有興趣的伙伴可到我的部落格https://omnixri.blogspot.com或在下方留言交流一下。 這幾年人工智慧迅速發展,大家都說自家的晶片計算能力最強,但始終沒有一個標準。去年中在安卓手機上出現了以Android NN SDK(安卓作業系統8.1以上才有支援)開發的AI Benchmark APP才開始有了較公平的比較方式,在這樣的評測平台下,不管晶片中有CPU、GPU、NPU、DSP或其它加速IC,只要有提供支援NN SDK的驅動程式,此時就能在同樣的程式及測試條件下下進行比較,就像大家在比較顯示卡能力時,OpenGL就成了大家公認的評估基準。這款AI Benchmark提供了九種測試情境涵蓋常見AI應用及算法,包括影像中的物件偵測/分類(MobileNet V2, Inception V3)、名人人臉辨識(Inception ResNet V1)、影像去模糊(SRCNN 9-5-5)、影像超解析度(VGG 19, SRGAN)、影像語義分割(ICNet)、圖像增強(ResNet 12)、記憶體限制(SRCNN 9-5-5)等,並提供數十種手機的跑分結果方便大家進行比較,有興趣的朋友可以參考 https://ai-benchmark.com/tests.html 。 AI Benchmark APP (點擊圖片放大) 大陸方面在建立AI晶片評測標準相當積極,去年底(2018/10)才由人工智能產業發展聯盟(AIIA)發佈「人工智能端側芯片基準測試評估方案Version 0.5」,今(2019)年三月就針對兩家晶片完成首輪評估工作,包括麒麟980及瑞芯微RK3399兩款晶片。其評測項目包括四種應用場景(影像分類、目標辨識、語義分割、超解析度)、九種網路模式及兩種關鍵測指標(時間及算法性能)。為使更多廠家加入此一評測基準,目前已將代碼開源到Github,有興趣的朋友可以參考 https://github.com/AIIABenchmark/AIIA-DNN-benchmark 。 AIIA AI晶片評測標準 (點擊圖片放大) 更完整的新聞報導請參考:https://zhidx.com/p/142335.html
其他 AI晶片

發文時間 2019/04/13 作者 omnixri

瀏覽次數2249 留言數量2 按讚次數0


最新發表
疫情使企業「數位轉型」迫在眉睫,但員工身心靈都已裝備到位了嗎?
2021年全球疫情因疫苗問世漸趨和緩;台灣也正從新一波疫情高峰中逐步獲得控制,但仍不鬆懈。「數位轉型」即是企業追求長遠生存,逆勢求生的唯一手段。不只是數位工具的導入,其員工數位能力的提升及心態健康程度,更是決定企業能否在這場「防疫持久戰」致勝的關鍵! 企業的「數位轉型」不只包含了「數位化」—將實體的資訊轉成為電子化,儲存於電腦或是雲端中,加速作業效率。更重要是藉由「數位化」基礎,在營運流程、顧客體驗及商業模式等策略中,結合數位工具,提升工作效率並賦予全新的價值,增加市場競爭力。所以,擁有數位腦袋和開放態度的人才,就顯得格外重要!但對於資源不是非常多的企業(可能員工數僅百人以下),不太可能立即擴大招覽相關人才。那麼,就從既有人才上,去轉型、賦能優化吧! 如何幫助員工快速升級,符合企業「數位轉型」戰略目標? 需針對不同部門、不同專業類別的員工,制定相應的學習計畫。從具有架構化的學習開始:以員工學習體驗為導向,滿足員工碎片化學習需求,著重提升學習效率與成果,內容即時因應企業變革成與轉型訴求,在企業有限資源下達到最佳學習成果! 所以,相應教材與學習系統就須同時兼備『快速產製教材』及『穩定學習品質』兩大特性。而「AI智能影音」平台即能達到上述需求,使企業人力培訓上縮短員工訓練時程,加速應用所學,為企業在艱困時,深蹲打好基礎。 「AI智能影音」平台運用大數據、AI自然語言處理、電腦視覺技術等技術,能自動將文字匹配靜態圖與動態影音,並使平台內的影音模型藉由反覆訓練,合成出符合觀眾閱聽行為且具有品質的影音內容。平台最大優勢為,使用者只要將一段文字匯入平台,5分鐘內產出約1分到1分半的影片,不需要額外找素材,其影片的內容就是自百萬商用授權素材庫(包含靜態圖像、動態影音、背景音樂)。大幅縮短原先產製教學影片的時程,中小型企業也能因應市場變化,動態調整教學內容!不增加培訓人員與受訓人員工作負擔。 「數位轉型」是企業須即刻on上日期的專案,數位工具使用與員工賦能就是第一步。全球市場瞬息萬變,難保未來不再有意外。企業應自日常扎根,在非常時期宛如期中考般,考核過去在數位轉型上的投資,方向是否正確?是否風暴中向前挺進?收割推動轉型的豐碩果實,為企業營收再創新高峰! 點擊 看更多企業案
數位轉型時代人才職能的再進化
近年來全球資訊產業趨勢變化快速,雲端運算、物聯網、資料科學、人工智慧和5G行動通訊等尖端技術日新月異的發展應用,帶動了數位經濟的興起,並同時重塑了全球經濟結構。根據世界經濟論壇(WEF)的預測,2022年全球GDP將有六成來自數位經濟,可見數位經濟的發展對全球經濟未來趨勢影響之重大,而其影響自然也將及於人力資源市場。 產業面臨這一波數位轉型,正如當初個人電腦、網際網路的普及一樣,將會完全翻轉全球經濟、以及企業現有的商業模式。過往數位科技人才大多為資通訊及高科技產業所需求,隨著產業積極導入數位工具及人工智慧應用、企圖尋求下一波創新成長動能,各行各業展開數位科技人才爭奪,根據國家發展委員會對於臺灣未來十年人力市場之預估,數位人才將呈現大規模人力缺口。 AI取代工作 還是創造機會 科技帶來翻天覆地的影響,新興領域之人才需求不斷攀升,嶄新的商業模式、跨領域的整合應用也層出不窮。迎接新科技帶來新工作機會的同時,人才技能必須時常更新,以掌握未來世界的人力需求及工作樣態的變化。 根據臺灣經濟研究院研究報告指出,隨著人工智慧、物聯網、大數據、資訊安全等技術發展,將會為我國帶來新的人力需求;反之,設備操作、倉儲物流、行政庶務等事務性及高重複性工作,則可能因新科技而受到衝擊。然而,人類的工作真的會被AI和機器人取代嗎?國際研究暨顧問機構Gartner指出,2020年,雖然有180萬個職位被AI取代,不過同時AI也將創造230萬個工作機會,帶動整體工作機會正成長。未來的人力資源趨勢將是人工智慧結合人腦的工作型態,隨著自動化科技的引進顛覆人類在工作上所扮演角色,勞動者必須具備新的技術和能力,以因應這一波數位趨勢。 人才職能重塑 已是世代常態 各種新興科技正在重塑我們的世界,我們是否都準備好了呢?現今企業普遍面臨相當大之人才挑戰,人才競爭態勢只會越來越激烈,數位科技浪潮下,在可預見的未來,機器人或人工智慧一定會對企業人力運用造成影響,企業數位轉型已經是勢在必行的壓力,就公司而言,企業所需的人才技能隨著公司經營策略的調整均在不斷轉變中,人才需要積極主動、擁抱改變,人才所具備的技能如不隨著大環境的變動,將面臨無法與時俱進的風險、最終可能被市場淘汰。 過去用一把刷子行走職場、或是十年磨一劍的年代已經過去,單一技能很容易被潮流取代、唯有具備數位科技、跨領域專長的人才方能在瞬息萬變的職場上勝出。世界經濟論壇的報告指出,全球所有受雇員工有半數以上(54%)需要在未來三年內接受大幅度的技能重塑與提升訓練。而數位科技人才常需隨趨勢發展而更新專業能力,根據之前Gartner的一份調查,職場員工平均每三年需更新一次職務內容與數位科技專業能力。 職能再進化 先找出自己的型 在這波數位技能革命中,企業必須打造新的人才職能規格、於公司內部創造並鼓勵員工持續學習的環境和文化,同時協助員工捨棄舊技能與發展工作所需新技能。由於企業很難找到各方面條件都符合的現成人選,招募到合適的人才所需之時間已經越來越長。有越來越多的企業支持從既有的員工進行在職培訓,並轉型為數位科技人才,不僅有效降低企業招募時間與經費成本,也可以避免招募到的員工不適任無法久留的風險。越來越多的企業正在提高技能重塑的投資,在企業發展數位轉型的同時,偕同組織內的人才一起精進、重塑員工技能,及早做好職能轉型的全面準備。 然而,職能轉型並非一件容易的事情,根據108年經濟部人工智慧產業人才需求調查發現,並非所有現職員工都能成功轉型人工智慧人才,最被企業看好且轉型成功率高的人才通常已具備相當基礎(有型)、在這個基礎上進行職能轉型較容易成功;例如工程類職務(如:系統工程師、後端軟體工程師) 本身即具有程式撰寫、系統開發能力,較容易轉型為機器學習工程師及AI應用工程師等AI新興職務。而資料類職務(如:資料庫工程師、統計分析師)已具有資料庫或數據分析等基礎,亦容易轉型為資料工程師或資料分析師。而一般常見的產品經理、專案經理及行銷企劃專員等職務,已具備專案管理、產品管理、行銷推廣、跨部門溝通…等軟實力,若能再強化AI相關基礎知識,也容易轉型為AI專案經理或AI產品經理。 生命不息 學習不止 迅速和持續變化的工作性質正在改變學習與工作間的關係,當我們一直被機器追趕著學習新技能,如何能夠有效應對新世代的變遷、在數位經濟的潮流中成為未來產業所亟需的人才?在數位時代的潮流之下,新世代的人才需要透過不同管道不斷精進自我,才能持續增加自己的附加價值,而不被時代所淘汰。未來的人才唯有在終生學習、科技協作、軟技能和環境應變等四個面向深化努力,方能應對快速變遷、日新月異的產業趨勢。 在終生學習方面,除了持續學習的腳步外,在學習的方向上,也要注意學習內容與工作之融合度,以期能符合實際工作的職能需求,此外考量個人能力及人格特質做個性化的學習,也對強化自身附加價值,以及未來職涯的發展有所助益;在科技協作方面,隨著AI與自動化的興起,新的工作型態對人機協作的需求也越來越高,在人類主導的情況下,由機器提供輔助進行工作,將會成為產業從人工朝向智慧化發展過程中過渡的第一步,因此在科技協作的學習投入,將能有效幫助人才面對AI化與自動化的挑戰;軟技能是人類勝出機器的關鍵,包括溝通、思考和創意等在現今這個科技時代愈趨重要,未來人才需要培養機器所無法取代的能力,以增進自身在職場的不可取代性;在環境應變方面,由於近年來產業趨勢的變遷快速,新技術的推陳出新使得人才在適應環境變化上的需求大幅提升,未來的人才也需要像電腦持續定期更新,隨時檢視自己的技能、擁有持續重塑自己以靈活應變的能力,才能在時代的潮流中維持競爭力! 財團法人資訊工業策進會∕數位教育研究所∕數位轉型訓練中心 陳麗萍 組長
AI創作音樂有可能成為一種新趨勢嗎?
音樂是全世界共通的語言,大家都同樣使用12個音符,但卻能創造出各種風格的音樂。目前主打透過AI生成音樂的服務越來越多,在國外還有透過 AI 即時生成電子樂的音樂串流服務,這樣的音樂創作方式有可能會成為趨勢嗎?
到了5G時代,那麼邊緣運算會有何不同嗎?
我們都知道物聯網的概念開啟了科技應用的新視野,當越來越多元件走向微型化、智慧化,數據海嘯也隨之而來,如何讓這些裝置以最有效率的方式運作,互通有無,並發揮大數據的優勢,成了當務之急。邊緣運算便是實現運算資源佈局最佳化的關鍵途徑,不過現在有了5G的出現,對於邊緣運算會有什麼影響呢?
最近在AI資料分析常使用到的"增強分析"是什麼意思?
「增強分析」(augmented analytics)被預測為今年十大戰略趨勢,它對一般企業來說意味著什麼?對數據科學家來說影響又有多大?希望可以了解一下

熱門發表
如果提供影像辨識的訓練資料不足,AI電腦視覺技術是不是就派不上用場了?
目前深度學習很火,從醫療、零售、倉儲、工業到監控等,好像各種影像辨識都能用到,但往往在一個地方卡關,那就是沒有足夠大量且有代表性的資料提供"訓練",有沒有可能用少量資料來達成好的辨識效果呢?
【解題建議】利用OpenPose來解決骨架(姿態、行為)分析
此次出題有很多項目和姿態(行為)分析有關(如下所示),而其根本就是要先找出人的骨架,再加上時間序列來分析骨架各特徵點的位移,進而判定使用者的動作(類型)。 【華碼數位】 體適能動作與姿勢辨識:以影像分析運動者姿態。 【宸訊科技】 利用動態影像辨識技術完成對農民於田間作業之行為分類與分析並能結合AI技術、配合專家互動,持續調整分類學習精準度:從串流影像中分析農業作業姿態(行為) 。 【集思動力】 iSEM多裂肌脊椎運動AI體況分析應用:透過影像、視頻分析人體動作姿態是否滿足特定位置、角度。 【百一電子】 AI電腦視覺辨識男生/女生的情緒與動作事件 :透過視頻分析十六種動作行為。 【良品嚴選】 客戶輪廓分析與服務人員及時輔助系統:從視頻分析客戶在店面行為以提供智能零售。 【良品嚴選】 線上連結線下新零售之AI分析:從視頻中分析行銷手段是否改變消費者行為。 【艾爾塔科技】 線下零售數據消費者行為洞察與全通路數據整合:透過人流資訊分析及預測消費者行為。 【卡訊電子】 智慧教室語音與影像偵測數據AI分析:建立語音、影像辨識老師、學生行為以增進學習效益。 而在開源技術中以CMU的OpenPose最為知名,包含有身體、頭(臉部)、手等部位,有興趣的朋友可以參考一下 https://github.com/CMU-Perceptual-Computing-Lab/openpose
數據「學」無止盡!機器學習、深度學習、統計學究竟差在哪?
數據當道的現今,多少人、事、物受惠於這些龐大的數據分析和學習,但你知道機器學習、深度學習、統計學的差異是什麼嗎?
CES展上發佈的蚊子偵測器怎麼辨別這種微小差異的?
以色列新創業者Bzigo在CES展出一款室內蚊子或小型飛蟲偵測器,宣稱能夠偵測距離8公尺內的蚊子、追蹤蚊子飛行的軌跡,但蚊子很小隻且飛行速度不慢,實際可以偵測到的成效不知道如何,怎麼辨別蚊子或小型飛蟲和其他東西的差異?  
Time is money!如何讓製程最佳化、讓生產更簡單?
從網路時代到物聯網興起,工業 4.0 強調自動化與生產線聯網功能,而新一代的智慧工廠發展,則更仰賴邊際運算、AI 和數據分析。然而,究竟要如何讓製程最佳化,使得生產速度提升呢?

主題分類