24小時(shí)聯(lián)系電話(huà):18217114652、13661815404
中文
行業(yè)資訊
人工智能和監(jiān)管——工程師需要注意什么
人工智能和監(jiān)管——工程師需要注意什么
在過(guò)去的十年中,人工智能經(jīng)歷了突飛猛進(jìn)的發(fā)展,現(xiàn)在發(fā)現(xiàn)自己在許多日常應(yīng)用中,包括網(wǎng)站流量管理、廣告和預(yù)測(cè)性維護(hù)。從道德的角度來(lái)看,人工智能會(huì)帶來(lái)哪些挑戰(zhàn),歐盟將出臺(tái)哪些立法,以及工程師為什么要謹(jǐn)慎對(duì)待人工智能?
AI 帶來(lái)了哪些挑戰(zhàn)?
世界各地的一些關(guān)鍵人物表達(dá)了他們對(duì)人工智能的擔(dān)憂(yōu),并講述了人工智能將如何以類(lèi)似于終結(jié)者的方式征服人類(lèi)的故事。然而,事實(shí)是,人工智能不太可能以滅絕人類(lèi)的單一目的以虐待狂殺手的方式行事。但這并不是說(shuō)人工智能不會(huì)帶來(lái)挑戰(zhàn),如果不加以控制,它可能會(huì)橫行無(wú)忌。
有 人工智能的許多方面都帶來(lái)了工程方面的挑戰(zhàn)、隱私和道德觀點(diǎn)。除非社區(qū)能夠齊心協(xié)力解決這些問(wèn)題,否則世界各地的政府可能會(huì)開(kāi)始監(jiān)管人工智能并可能阻礙其進(jìn)步。
首先,人工智能面臨的更大挑戰(zhàn)之一是它在決定個(gè)人命運(yùn)方面的用途。人工智能可以很容易地用于預(yù)測(cè)個(gè)人的行為,并使用這些結(jié)果來(lái)確定信用評(píng)級(jí)和保險(xiǎn)費(fèi)。盡管如此,此類(lèi)決定可能會(huì)改變個(gè)人的生活。因此,有人可能會(huì)爭(zhēng)辯說(shuō),人工智能缺乏同情心和人性會(huì)導(dǎo)致僅基于預(yù)測(cè)的不公平判斷。然而,反駁是人工智能無(wú)法區(qū)分,因?yàn)槿斯ぶ悄軓母旧蠠o(wú)法持有意見(jiàn)(即它只是從提供給它的數(shù)據(jù)中學(xué)習(xí))。
AI 面臨的另一大挑戰(zhàn)是從隱私的角度來(lái)看。人工智能要提高其執(zhí)行任務(wù)的能力,就需要數(shù)據(jù)。當(dāng)涉及到人工智能用于營(yíng)銷(xiāo)和廣告時(shí),此類(lèi)數(shù)據(jù)將采用姓名、年齡、性別和國(guó)籍等個(gè)人信息的形式。但是,收集大量此類(lèi)數(shù)據(jù)實(shí)際上使每個(gè)用戶(hù)都有可能侵犯隱私。未經(jīng)用戶(hù)許可,這些數(shù)據(jù)可能會(huì)被出售給第三方或被惡意活動(dòng)竊取。
然而,人工智能變得非常成問(wèn)題的地方是 當(dāng)局描述公民和限制個(gè)人自由. 這方面的主要例子是中國(guó)政府部署人工智能來(lái)跟蹤每個(gè)公民,并根據(jù)這些人對(duì)執(zhí)政黨的忠誠(chéng)度給他們一個(gè)社會(huì)信用評(píng)分。社會(huì)信用低的人不得乘坐飛機(jī)、火車(chē)等公共交通工具,社會(huì)信用分?jǐn)?shù)極低的人被公開(kāi)羞辱,與個(gè)人為朋友的人則被警告不要靠近。
歐盟將很快引入人工智能立法
最近,歐盟一直表示有興趣引入人工智能監(jiān)管,以防止人工智能被用于可能侵犯?jìng)€(gè)人自由和隱私的高風(fēng)險(xiǎn)類(lèi)別。根據(jù)歐盟公布的信息,人工智能的使用將屬于三類(lèi)之一;不可接受的風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)和有限風(fēng)險(xiǎn)。
不可接受的風(fēng)險(xiǎn)是涉及潛意識(shí)和操縱性消息傳遞、當(dāng)局使用的實(shí)時(shí)生物識(shí)別以及任何社交評(píng)分系統(tǒng)的應(yīng)用程序。歐盟打算徹底禁止這些領(lǐng)域使用人工智能和任何相關(guān)工具。
高風(fēng)險(xiǎn)是對(duì)個(gè)人用于信貸和其他金融服務(wù)進(jìn)行排名的應(yīng)用程序。例如,使用人工智能挑選候選人的招聘工具被認(rèn)為是一種高風(fēng)險(xiǎn)的應(yīng)用程序。此類(lèi)別還包括用于非公共場(chǎng)所身份識(shí)別的生物識(shí)別系統(tǒng)以及用于司法行政的任何系統(tǒng)。
最后一類(lèi) 本質(zhì)上包括另一個(gè) AI 應(yīng)用程序這被認(rèn)為對(duì)社會(huì)、數(shù)據(jù)和權(quán)利的影響最小。此類(lèi)應(yīng)用包括 AI 聊天機(jī)器人、垃圾郵件過(guò)濾器、視頻游戲中的 AI 和庫(kù)存管理。
為什么工程師要小心人工智能?
毫無(wú)疑問(wèn),人工智能已被證明是 用于預(yù)測(cè)分析和數(shù)據(jù)管理的寶貴工具. 盡管如此,仍有越來(lái)越多的應(yīng)用程序出于不道德和惡意的原因繼續(xù)濫用人工智能的力量。
如前所述,人工智能在中國(guó)社會(huì)信用體系中的使用是人工智能如何被可怕濫用的一個(gè)典型例子。讓社會(huì)信用體系變得更糟的是,人工智能和視覺(jué)技術(shù)的廣泛使用是自我完善的,這意味著社會(huì)信用體系使用的時(shí)間越長(zhǎng),人工智能就會(huì)變得越好。因此,使用一種在西方看不到的不道德技術(shù)現(xiàn)在正在推動(dòng)中國(guó)人工智能技術(shù)遠(yuǎn)遠(yuǎn)超出西方的能力。
出奇, 人工智能可以實(shí)現(xiàn)到大多數(shù)應(yīng)用程序中,正是這一事實(shí)使其成為工程師的誘人工具。人工智能可以隨著時(shí)間的推移進(jìn)行訓(xùn)練,而不是描述系統(tǒng)可以做出的每一個(gè)可能的決定,這可以說(shuō)是一項(xiàng)更容易的任務(wù)。
然而,僅僅因?yàn)橐粋€(gè) AI可以完成任務(wù)并不意味著它應(yīng)該. 這可以通過(guò)使用跟蹤系統(tǒng)、生物特征數(shù)據(jù)收集和其他不必要的應(yīng)用程序來(lái)清楚地看到,這些應(yīng)用程序?yàn)榱耸褂萌斯ぶ悄芏占瘋€(gè)人數(shù)據(jù)。例如,一家公司可以使用人工智能系統(tǒng)讓員工基于面部識(shí)別進(jìn)入建筑物。盡管如此,鑰匙卡可以完成相同的任務(wù),而無(wú)需存儲(chǔ)個(gè)人信息。
如果工程師在使用 AI 時(shí)不小心進(jìn)行自我調(diào)節(jié),那么世界各地的政府可能會(huì)開(kāi)始出臺(tái)法律法規(guī),使開(kāi)發(fā) AI 變得更加困難。工程師最不需要的就是繁文縟節(jié),所以不要陷入物聯(lián)網(wǎng)興起期間行業(yè)陷入的陷阱。