導讀:隨著很多企業(yè)投入大量資金和人力研究和開發(fā)人工智能,他們面臨著隱私與道德的相關問題。
隨著很多企業(yè)投入大量資金和人力研究和開發(fā)人工智能,他們面臨著隱私與道德的相關問題。例如,負責任的人工智能是什么樣的?如何控制人工智能偏見?人工智能技術是前沿技術,它對社會發(fā)展有著嚴重的影響。但在企業(yè)能夠解決道德問題之前,他們應該關注數(shù)據(jù)治理的更基本問題。
人工智能技術在過去五年中發(fā)展迅速。很多人認為神經(jīng)網(wǎng)絡在某些任務中比人類做得更好,特別是在某些圖像分類系統(tǒng)中。企業(yè)可以利用這些先進的人工智能功能來簡化運營,提高利潤,降低成本,并改善客戶服務。
但Information Builders公司阿姆斯特丹辦事處數(shù)據(jù)管理卓越中心的國際主管James Cotton說,盡管人工智能技術很強大,但如果基礎數(shù)據(jù)管理不善,就不能以合乎道德的方式實施。他指出,了解數(shù)據(jù)治理與人工智能道德之間的關系至關重要。
他說,“數(shù)據(jù)治理是人工智能道德的基礎。如果企業(yè)不知道自己擁有什么,數(shù)據(jù)來自哪里,數(shù)據(jù)是如何使用的,或者數(shù)據(jù)被用于什么目的,就不能以道德的方式使用數(shù)據(jù)?!?/p>
實施GDPR法規(guī)是一個良好的開端
企業(yè)面臨的挑戰(zhàn)在于沒有適用的數(shù)據(jù)治理的標準或方法。而歐盟推出的通用數(shù)據(jù)保護法規(guī)(GDPR)就是一個良好的開端,但即使實施GDPR法規(guī)也不足以確保在所有情況下都能實現(xiàn)良好的數(shù)據(jù)治理。而人們希望通過2021年推出的電子隱私條例(ePR)法來解決這一問題。
對于同一數(shù)據(jù)塊,采用良好治理的規(guī)則可能會有所不同,這取決于如何收集它們以及如何使用它們,這是問題之一。
Cotton說,“人們都傾向于把數(shù)據(jù)看作一堆1和0,并在數(shù)據(jù)庫中存放大量數(shù)據(jù)。事實上,并非所有數(shù)據(jù)都是平等創(chuàng)建的。當然,也并非所有數(shù)據(jù)都被同等對待,而且可能不應該這樣。”
Cotton表示,例如記錄中某位客戶的頭發(fā)是紅色的,這并不被視為“個人數(shù)據(jù)”。他說,“這并沒有什么個人暗示。但如果他或她住在芬蘭北部一個只有20人的村莊,將這兩個特征相結(jié)合,合并的數(shù)據(jù)集可能能夠識別這個客戶,因此應該以不同的方式處理?!?/p>
Cotton表示,這種不斷變化的數(shù)據(jù)性質(zhì)可能會破壞企業(yè)遵守GDPR法規(guī)的能力,更不用說提供有意義的信息來長期訓練人工智能模型。其最佳實踐是不要在與原始數(shù)據(jù)集合相關聯(lián)的場景之外使用數(shù)據(jù)。
但數(shù)據(jù)和數(shù)據(jù)治理的其他方面對人工智能和模型訓練有著更直接的影響,其中之一就是糟糕的數(shù)據(jù)。
錯誤的數(shù)據(jù)
那些希望在人工智能技術方面有所成就的企業(yè)都希望獲得準確和正確的數(shù)據(jù),這是因為可以提高人工智能的有效性和實用性。由于數(shù)據(jù)準確性是良好數(shù)據(jù)治理的副產(chǎn)品,因此采用良好的數(shù)據(jù)治理實踐符合企業(yè)的本身利益。
這是循環(huán)的良性部分:良好的數(shù)據(jù)治理導致開發(fā)更好的人工智能,而更好的人工智能反過來支持更符合道德的人工智能。人們還可以想象,如果客戶相信開發(fā)商以合乎道德的方式實施人工智能,他們會更愿意與開發(fā)商共享更多、更好的數(shù)據(jù),如果他們知道它不會被濫用,并且是準確的,他們也可能從中得到一些有益的東西。
但如果數(shù)據(jù)質(zhì)量一開始就很低,其輸出的結(jié)果將會更加糟糕。
Cotton說,“我們知道,世界上大部分數(shù)據(jù)都是錯誤的?!边@些數(shù)據(jù)質(zhì)量錯誤來自各種地方。問題是,一將它們應用到人工智能上,無論人工智能技術能否處理這些問題,人工智能只會在大規(guī)模上做出錯誤的決定?!?/p>
Information Builders公司將數(shù)據(jù)治理解決方案作為其套件的一部分出售。該軟件可以幫助客戶回答這樣的問題:“例如,這些數(shù)據(jù)來自何處?為什么首先收集這些數(shù)據(jù)?在此過程中,我們對它做了什么?出于什么原因?誰最后使用了它?它在哪里使用?它是如何被利用的?我們是否對此認同?”
Cotton說:“任何合適的數(shù)據(jù)管理項目都存在這樣的問題。如今,當越來越多的企業(yè)和潛在客戶開始認識到他們在組織中所擁有的數(shù)據(jù)的價值,并開始真正地將其視為一種戰(zhàn)略資產(chǎn)時,他們也開始更加重視該信息的實際管理和治理,并應以最佳方式進行組織和使用?!?/p>
人工智能道德倫理指南
GDPR法規(guī)和其他類似隱私法律為企業(yè)提供數(shù)據(jù)治理的最低標準,或者因此而面臨巨額罰款。最重要的數(shù)據(jù)驅(qū)動型企業(yè)在與人們及其數(shù)據(jù)的互動方面往往超出GDPR法規(guī)要求,但GDPR法規(guī)仍然是一種標準較低的法規(guī)。
目前,在人工智能道德方面并不能采用最低標準。咨詢機構(gòu)德勤公司負責人Vic Katyal說,不要指望人工智能道德法規(guī)會很快出臺。
Katyal說,“對于那些使用人工智能技術的用戶來說,擔心面臨一些風險。而在調(diào)查中,40多名證券交易委員會注冊者對人工智能相關風險表示擔憂。但是,當人們談論組織的發(fā)展方向、支出、發(fā)展旅程時,在這一點上,我認為很多事情都處在初始發(fā)展階段?!?/p>
Katyal說,受監(jiān)管行業(yè)的企業(yè)正在進一步解決人工智能道德問題,就像他們傾向于進一步推進數(shù)據(jù)治理項目一樣,位于人工智能道德領域前沿。但他表示,由于美國缺乏數(shù)據(jù)治理和數(shù)據(jù)隱私監(jiān)管法規(guī),因此在確定人工智能道德標準方面的進展正在受到阻礙。
他說,“在美國,人們甚至無法就數(shù)據(jù)隱私規(guī)則的共性達成一致。美國各州都有自己的法規(guī)。即使是基本的數(shù)據(jù)隱私動機、本地化類型的規(guī)則,也無法創(chuàng)建聯(lián)邦層面的規(guī)則。”
Katyal預測,如果制定出更加完善的人工智能道德法規(guī),那么很可能來自歐洲,而且將在三到五年之后推出。
他繼續(xù)說:“人們?nèi)栽谂刂迫斯ぶ悄艿牡赖聵藴剩鴮崿F(xiàn)這個標準需要一段時間。我希望在數(shù)據(jù)治理方面看到更多的事情發(fā)生,將其視為隱私標準和規(guī)則,并達成一致。如果能達成協(xié)議,那就更好了。”
然而,只是因為目前沒有關于人工智能道德使用的法規(guī),這并不意味著企業(yè)不應該考慮它。
現(xiàn)在的人工智能道德
Katyal提供了一些如何在組織中考慮采用人工智能的提示。
他說,“首先,企業(yè)在采用人工智能技術時,必須將控制結(jié)構(gòu)放在管理算法以及數(shù)據(jù)方面?!?/p>
他表示,“如果是一個受監(jiān)管的行業(yè),那么該算法所做的任何決定都可能以某種方式影響或違反監(jiān)管措施。如果不是受監(jiān)管的行業(yè),那將面臨聲譽風險,因為其算法可能會失控,帶來一些問題,并導致企業(yè)的品牌、聲譽、人員、客戶受到影響,而企業(yè)可能不得不為此付出代價。企業(yè)應該以正在建造的東西和誰在建造它們?yōu)橹攸c進行治理,因為數(shù)據(jù)治理顯然正在發(fā)生變化。圍繞人工智能的算法進行一些治理,確保企業(yè)能夠了解正在發(fā)生的事情。這是一種很好的做法,雖然可能沒有規(guī)則推動這樣做,但這是正確的做法?!?/p>