亚洲AV无码一区二区三区天堂网,亚洲欧美日韩在线观看a三区,伊人久久大香线蕉综合电影,色姑娘综合网

公司新聞 展會活動 熱門資訊
當前位置:首頁 > 新聞中心 > 熱門資訊

管控措施相繼發布,AI是否已經觸及“邊界”

發布時間:2020-03-02
分享:


科技是把雙刃劍,當人工智能技術大規模應用于社會時,我們必須考慮它所帶來的負面效果。身處文明社會當中,大眾除了道德限制還有法律對自身行為進行約束,但開發者進行應用開發時,是否考慮到“喂”給機器的數據是否符合“法規”。特別是近年來人機交互的數量急劇增加,從而使得AI監管問題的討論變得更為熱烈。


感官的欺騙


視覺與聽覺是我們對外界感知的重要窗口,大眾的觀念中普遍認為“人的第一印象很重要”“眼見為實,耳聽為虛”。但面對信息錯綜復雜的世界,如今眼見也不一定為實,聽到的則可能更為虛假。曾經被議論的Deepfake換臉技術就屬于罪魁禍首之一,其利用了AI深度學習功能,通過數以億計的自我學習、神經網絡訓練。AI能夠識別出畫面中那些和周圍場景格格不入的部分,同時將其移走和生成缺失的像素,最后重繪出部分像素進行畫面填補。谷歌公司也曾推出WaveNet軟件,可以利用其神經網絡系統對原始音頻波形進行建模,生成帶有不同語氣音節和情感表達的人類自然語言的音頻。外媒曾報道過一例案件,不法分子就利用了類似的AI技術,成功模仿了英國某能源公司CEO的聲音,詐騙了220,000歐元,執法當局認為此種類案件的調查取證更為困難。




AI道德準則

2019年,我國首次將AI造假音視頻列入法規,國家網信辦出臺《網絡音視頻信息服務管理規定》。對于利用基于深度學習、虛擬現實等新技術新應用制作、發布、傳播非真實音視頻信息的網絡音視頻:應當以顯著方式予以標識,不得利用其制作、發布、傳播虛假新聞信息;網絡音視頻信息服務提供者應當部署應用違法違規音視頻以及非真實音視頻鑒別技術,應當建立健全辟謠機制。日前,歐盟也相繼出臺《人工智能白皮書》,對人工智能領域的投資監管路徑設立雙重目標,旨在推動道德和可信賴人工智能的發展。并通過建設“卓越生態系統”和“信任生態系統”雙重系統,構建一個卓越的、可信賴的人工智能體系框架。


近日,面對人工智能的倫理 “紅線”,博世在“博世互聯世界大會”上發布人工智能技術的指導方針《AI道德準則》。博世認為人工智能是服務于人類的工具,任何可能對人造成影響的人工智能決策都需要人類的監管。準則中包含了三種機制,它們遵守著一個共同的原則,即博世開發的人工智能產品中,人類必須保留對人工智能所做決策的最終控制權。第一種機制為人工控制(human-in-command),它適用于人工智能只作為支持工具出現的情況。例如,在決策支持系統中,人工智能幫助人們對物體或生物進行分類。第二種機制為使用階段的人為干預(human-in-the-loop),適用于人工智能系統可以自主決策,但人類可以隨時干預的情況。例如,駕駛輔助系統,駛員可以直接介入停車輔助系統的決策等。 第三種機制為設計階段的人為干預(human-on-the-loop),適用于緊急制動系統等應用。開發此類智能產品時,專家將定義參數作為人工智能決策的基礎,而人類不參與決策,由人工智能進行。但是工程師可以隨時追溯檢查機器是否遵守所設定的參數進行決策,必要情況下可以修改參數。


面臨的困難


人工智能在應用層面有逐漸完善的法律法規進行約束,但在實際的技術開發中仍面臨著許多難以確定的細則。數據標定沒有統一標準:在機器學習中訓練數據前都會對數據進行清洗和標定。有時為了滿足業務進度的要求,不會進行全量全分類的處理。準確的說,無法對數據進行嚴格而準確的分類。這也是有監督學習類算法的缺點,就是針對特殊業務往往要進行專門的數據標定,同時算法設計者自身存在價值偏見也會導致人工智能系統無法正常運行。數據分析難全面:在準備訓練數據時應容納各類情況的發生,AI在數據錯誤的情況勢必會造成BUG,除了掌握各類情況,仍要調整好處理各種情況的參數或系數,包括算法模型存在的技術性缺陷都將導致人工智能系統無法正常運行。模型成長環境差異:AI算法模型的訓練環境對算法結果有重大影響,假設機器訓練環境變得沒有邊界,各類數據都被機器學習,這將很難保證機器會往著人類預想的方向發展,以及因為算法日趨“黑箱化”可能導致技術失控等問題。無論在技術或應用方向,都應該通過政策和法律引導,開展人工智能算法安全的評估檢測;推動技術倫理的算法導入。要求人工智能開發者設計高可解釋性的智能系統;同時,加強智能算法的透明監督,人工智能企業、行業應建立相應的算法監管體制,保持與政府監管的協同。


文章來源:OFweek人工智能


相關文章