你準備好跟AI機器成為同事了嗎?-超秦股票-關懷老人基金會

野村巴西基金你準備好跟AI機器成為同事了嗎?-

超秦股票

關懷老人基金會

。即時熱搜[

Bvi

,

酒店月租

],人工智慧賦予機器更多自主判斷能力,也造成人和機器互動關係的巨大變化,我們該如何面對人機共事的新時代?有一天,我們或許要聽從AI演算法的指示來完成人力工作;其實,

婕斯股票

這看似科幻小說的場景,已經是正在發生的進行式。 機器彷彿是我們最忠實的員工,一年365天從不抱怨;只要按下一個按鍵,工作就會自動完成。但你是否曾經想過:有一天,你可能會為機器工作? 想像有一天,我們聽從AI演算法或機器的指示,來完成人力工作;而這看似科幻小說的場景,其實已經在世界上的許多角落開始發生了。 推薦閱讀:人機協作時代來臨,你準備好了嗎? 場景1──用演算法管理員工(Algorithmic Management) 越來越多的公司開始使用演算法來管理員工(Algorithmic Management)。像是Uber或Lyft這樣的分享經濟公司,已經率先開發出許多自動工具,來管理遠端工作人員;包括使用者評分系統,以及自動向駕駛提醒或建議下一步動作的系統等等。 在物流業中,UPS和Amazon等公司正在使用自動化系統追蹤員工、並且優化貨物處理量;這些演算法收集工作人員的資料,並做出(半)自動化的決策來提供即時激勵,以達到更高的產出。 有一些新創公司,也開始提供監視員工、或是管理駕駛行為的AI解決方案。與人工監督相比,這些自動化技術更容易擴展到更多營運據點,

股票期貨開戶

因此也被越來越多的公司採用。 場景2──為AI演算法工作的藍領勞工 之前我談到過機器學習(ML)主要有三種類型,包括: 監督學習(Supervised Learning) 無監督學習(Unsupervised Learning) 強化學習(Reinforcement Learning) 直到今天,

樂虎娛樂城app

仍有超過90%使用中的ML演算法是以「監督學習」為基礎。(延伸閱讀:給產品經理的 AI 開發指南) 換句話說,多數AI演算法需要從標記好的訓練資料中學習。為了提供標記過的訓練資料,有一個高成長的行業應運而生:由人工標記影像或聲音資料,以便機器能夠消化和學習。 「Scale AI」是眾多與標籤工作者合作,對資料進行分類,以用於訓練AI模型的新創公司之一;該公司成立僅有三年,卻在最近融資獲得高達1億美元的資金。 Scale與大約三萬名散布世界各地(大多在工資較低的國家)的契約工作者合作,為自動駕駛汽車和其他AI公司(包括Waymo、Airbnb和Lyft等)提供標記訓練資料的服務。 場景3──遠端控制和模仿學習(Imitation Learning) 在使用大量資料進行訓練時,深度學習的效果優於傳統機器學習;然而,獲取高品質的訓練資料通常很困難、而且成本相當高昂。 解決資料效率問題的方法之一,是使用模仿學習(Imitation Learning),也就是「讓機器從專家的示範中學習」。 FortressIQ是應用模仿學習技術,為顧客自動化公司流程的美國新創企業之一;他們的系統可以分析人類和軟體的互動,以便之後將這些流程自動化。 另一方面,美國新創公司Cobalt提供利用機器學習來執行巡邏工作的保全機器人(上圖)。這種機器人可以識別異常情況,也能讓工作人員遠端監控、並在必要時接管控制權。 AI讓機器變得越來越聰明,不再需要人類的一個口令一個動作;在某些領域中,甚至能夠自動下指令給人類,而這些新型態的人機互動,正在真實上演之中。 但是,我們也開始看到這些新形態人機互動所帶來的「副作用」: 演算法缺乏透明度和同理心 研究者Lior Zalmanson和Robert W. Gregory在最近的一項研究中發現,Uber出租車司機都認為,演算法非常瞭解他們,但他們對演算法的原理和決策依據卻知之甚少。 此外,司機們也感覺到演算法的決策有些不人性的地方;他們質疑這個系統的公平性,尤其在他們沒有得到明確解釋、卻遭到處罰的情況下特別明顯。 有許多其他勞工也覺得自己被演算法監視。他們不知道這些監控資料會用在什麼地方,也不知道工作分配、評分或報酬是否公平;如果不公平,他們也不知道有沒有什麼途徑可以提出抱怨。 「缺乏透明度」一直是AI的主要問題之一。 用這些自動化工具來管理員工,或許確實更有效率及擴充性;但生產力不應該是唯一的目標,必須也考慮到資訊的透明、以及對員工的同理心。 人與機器的角色責任分配不明確 以保全機器人為例,在機器人無法處理的情況下,人類的介入可能會有關鍵作用;但隨著機器人變得越來越聰明,機器可能會得出與人類不同的結論。 人類永遠能夠做出比機器人更好的決定嗎?誰有最終決定權? 另一個備受關注的例子:無人駕駛車。誰應該在自主的無人車中做決定?是車子本身、備用安全駕駛員、遠端監控的工作人員、還是乘客本身? 在什麼情況下、什麼時候介入?如果你只有一瞬間的反應時間,答案會有所不同嗎?誰應該對任何後果負責?科技公司?安全駕駛?還是設計演算法的工程師? 結語 雖然研究人員正在研究轉移學習(Transfer Learning)和元學習(Meta Learning),以設計能夠「學習如何學習」的AI模型;但老實說,我們離完全自主的人工智慧還很遠。 在可預見的將來,我們仍然需要標記資料,讓機器變得更加自主。我們需要調整自己,與時俱進,我們需要學習與AI機器一起共存的最佳方式。我們準備好迎接如此劇烈的社會變革了嗎?我們可以做些什麼來創造我們想要的未來? (本文由Bastiane Huang授權轉載自其Medium) 責任編輯:陳建鈞 《數位時代》長期徵稿,針對時事科技議題,需要您的獨特觀點,歡迎各類專業人士來稿一起交流。投稿請寄edit@bnext.com.tw,文長至少800字,請附上個人100字內簡介,文章若採用將經編輯潤飾,

綠能股票怎麼辦

如需改標會與您討論。 (觀點文章呈現多元意見,不代表《數位時代》的立場 文章源自於數位時代,勞退基金保證收益
Scroll to Top