人工抽查的效率當然遠不如實時AI監控。現在上海一家公交車公司啟用AI監控后,能夠隨時發現異常情況,一旦發現駕駛員行為反常,如頻頻閉眼、開小差、昏昏欲睡或者出現不合時宜的舉止行為,該公司會在公交車到站后,派遣其他駕駛員替換行為反常的駕駛員,從而將事故從萌芽就掐掉。據稱,中國各地的公交公司將要全面安裝此類駕駛員監控系統。
當AI全面進入人類生活時,如何使用AI,使用AI的倫理、管理和法律規范就應當有明確的認定、界線和規范。正如人的言論和行為會受到倫理和法律無處不在的規范一樣,AI的使用同樣如此。可以預見,當AI監控無處不在之時,人的生而不自由就會體現得更為充分,這是人類用自己的發明和創造來時時刻刻地監控自己。
這樣的轉換實際上進一步證實了人們的擔憂,如果不對技術加以規范的話,受到傷害的將是所有人。因為,AI不只是監控駕駛員,而有可能在監控所有人,所有人只要進入公共領域,都可能會受到360度全方位全時段的監控。那么,利用AI監控的問題也就隨之而出,哪些監控是合(倫)理合法的,是可以接受的,哪些是不合(倫)理不合法的,而且,這還只是AI技術全面進入人們生活的一個局部。
從人的本能來看,AI監控駕駛員似乎是合乎倫理的,當然也為未來的合法打下基礎(所有監控都應當立法和有法可依)。AI監控駕駛員的目的是為了安全,是為了避免疲勞駕駛,因為全球平均每年約130萬人死于交通事故,其中最大的原因是疲勞駕駛。中國疲勞駕駛導致交通事故占比為25%,每年約2.5萬人因此而死亡;美國占比21%,每年約6400人因此而喪生;德國疲勞駕駛導致的交通事故占比為20%,每年導致的死亡人數約為700人。
那么,我們需要討論的是延伸到AI監控的更深層次的倫理問題,包括監控者對被監控者如何行使權力,誰有權監控、查閱以及如何使用監控所獲得的大數據。即便監控數據和畫面不會泄漏,但基于這些監控的大數據也會讓監控者了解被監控者的偏好和行為特征,由此,既可以作為獲利的基礎,如產品研發,也可以針對某一群體進行思想或行為控制。
當然,AI進入人們的生活還有更為廣泛的倫理問題,哪些是AI可以做的,哪些是不可以做的。對此,已經有很多從事AI技術的科技巨頭提出了一些倫理原則,如微軟提出了六大原則:公平、包容、透明、負責、可靠與安全、隱私與保密。
谷歌公司則提出了七大原則:有利于社會、避免產生或加強不公平的偏見、構建并測試AI安全性、對人類負責、符合隱私設計原則、堅持科學卓越的標準、開發符合上述原則的AI用例。谷歌也列出了不能采用AI的倫理原則,包括:造成或可能造成總體傷害的技術;主要目的或實施造成或直接導致人類受到傷害的東西或其他技術;收集或使用信息進行監視的技術;違反普遍接受的國際法和人權原則的AI技術。
谷歌已經提出了不能用AI收集或使用信息進行監視,但是,這一點在今天恐怕是無法做到了,因為全球都已經處于攝像頭的監控之下了,因此,所要區分的是如果監控有利于健康、生命安全、公平并保護隱私,則可能獲得公眾的首肯,這也是監控駕駛員的意義所在。
【來源:環球網】