應用

技術

物聯(lián)網世界 >> 物聯(lián)網新聞 >> 物聯(lián)網熱點新聞
企業(yè)注冊個人注冊登錄

自動駕駛、人工智能將把你的未來生活變成什么樣?

2020-04-29 09:04 大數據DT

導讀:自動駕駛汽車也會產生類似的廣泛影響嗎?下面我們簡要討論一些可能的結果,以及一些道德、法律和社會問題。我們的目的不僅在于幫助大家了解自動駕駛汽車,而且還要針對我們在整本書中對技術潛在后果的思考進行“熱身”。

01 自動駕駛汽車

社會科學家把下列這些對我們的環(huán)境和生活方式的巨大改變都歸功或歸罪于汽車:郊區(qū)、污染、自由、家庭度假、結束生命、挽救生命。

自動駕駛汽車也會產生類似的廣泛影響嗎?下面我們簡要討論一些可能的結果,以及一些道德、法律和社會問題。我們的目的不僅在于幫助大家了解自動駕駛汽車,而且還要針對我們在整本書中對技術潛在后果的思考進行“熱身”。

也許自動駕駛汽車的最大好處是它們會拯救生命。目前,美國每年大約有35 000人死于車禍。人為錯誤是大約95%車禍事故的原因或原因之一。毋庸置疑的是,由于意外情況、軟件缺陷或設計錯誤,自動駕駛汽車也將會導致一些致命的車禍事故,但總數可能遠遠低于人類駕駛者。

在很多情況下,人們可能會在需要時從汽車服務商那里叫車,這樣的服務很可能是由汽車制造商和汽車共享APP組成的合資企業(yè)來提供的。自動駕駛汽車提供的服務應該比帶司機的汽車服務更為便宜。

另外,還可以通過捎帶附近的其他乘客來提供更加低廉的汽車共享服務,特別是在早晚高峰時段。軟件可以快速地確定附近有哪些客戶將要去相近的目的地,并且當需要與陌生人共享汽車時,汽車共享服務還可以對會員進行篩查,以保證乘客的安全。那么,自動駕駛汽車服務會對公共交通產生什么影響呢?

隨著方便、低廉的叫車服務的出現,更多家庭可能會選擇擁有比現在更少數量的汽車。目前,一輛汽車平均大約有95%的時間都處于停車狀態(tài)。根據定價的情況,很多人可能根本不會考慮自己買車。

駕駛滿載工具和材料的皮卡車的建筑工人可能會想要繼續(xù)擁有這樣一輛卡車,無論它是否是自動駕駛的,但除此之外,還有誰還可能想擁有自己的汽車呢?

總的來說,我們會需要更少的汽車。未來的房屋建筑商是否在建造大多數房子的時候只保留一輛車的車庫或根本不要車庫?

盲人、老年人和患有無法駕車的疾病的人將有一個更廉價也更方便的選擇,使他們有更多的自主權。需要去上駕校和考駕照的青少年也會越來越少。

城市、郊區(qū)和道路的設計可能會發(fā)生顯著變化。在擁擠的地區(qū)我們需要更少的停車空間。當我們到達目的地的時候,共享汽車會離開去拉其他人,而在晚些時候,我們會重新叫一輛車回家或去其他地方。如果我們擁有這輛車的話,它也可以去一個不太擁擠的地方停車,然后在我們需要的時候再開回來。

會因為汽車空著去接乘客而導致交通量增加,還是會因為我們不用再花時間尋找停車位而且人們會共享出行而導致交通量減少呢?交通會不會因為軟件比人類的駕車技能更高而變得更通暢呢?

自動駕駛汽車可以調整速度和路線,以減少紅綠燈的等待時間,或者在某些地區(qū)甚至可以完全消除對紅綠燈的需求。一些城市規(guī)劃人員預計交通流量會改善很多,因此有更多的人愿意住在距離工作地點更遠的地方,從而進一步擴大郊區(qū)的范圍。

我們是否需要專門配備傳感器和標記的新道路來輔助全自動駕駛汽車呢?建造這樣的道路是否會造成太大的開銷或負擔?這與我們在20世紀從為馬匹走的土路到為汽車鋪設的柏油路的過渡很相像嗎?

有人駕駛的汽車是否會被禁止出入高速公路和主要道路?這是否會造成對我們的自由的不合理限制,還是一種合理的過渡?就好像馬匹或自行車禁止在公路上行駛一樣。那么,喜歡以開車為樂的人是否必須去專門的場地?就像現在騎馬的人一樣?

控制自動駕駛汽車的軟件必須做出一些重要的倫理決策,例如在碰撞不可避免時應該選擇撞誰。例如,假設有一個小孩跑到了路上,汽車知道無法及時停下來以避免撞到他,那么唯一的選擇是轉去撞墻壁或其他車輛。

對大多數人來講,在選擇要買“Tyft”或“Goober”家的汽車時,是否要詢問汽車軟件在遇到這些情形之時所采用的標準?那么,到底該采用什么標準?如果事故死亡人數總體可以下降90%,那么與讓軟件安全駕駛的所有其他方面相比,這個問題有多重要?

如果我們想要讓車停到路邊拍照,該怎么辦?自動駕駛汽車會不會拒絕停放在非正規(guī)的停車位上?汽車軟件還需要實現哪些其他法律和規(guī)定?我們能否選擇不遵守這些規(guī)定?

你還能想到什么其他問題和影響嗎?

02 人工智能

人工智能(Artificial Intelligence,AI)是計算機科學的一個分支,它使計算機能夠執(zhí)行通常(或者習慣上)我們認為需要人類智慧的任務。

這包括玩復雜的策略游戲,例如國際象棋和圍棋(相對國際象棋來說要難很多)、語言翻譯、基于大量數據做出決策(例如批準貸款申請),以及理解語音(在這里可能會用響應是否及時作為“理解”的度量手段)。

人工智能還包括由人腦和神經系統(tǒng)自動執(zhí)行的任務,例如視覺(通過相機和軟件來捕獲圖像并加以解釋)。

學習能力是許多人工智能程序的特點,也就是說,程序的輸出會隨著時間加以改進,因為它會根據對遇到的輸入所做的決策結果進行評估來“學習”。

許多人工智能應用都會涉及模式識別,即識別不同物體之間的相似性。這類應用包括閱讀手寫體(例如,自動整理平板計算機上的郵件和輸入),指紋匹配,以及在照片中識別人臉。

在人工智能發(fā)展的早期,研究人員認為針對計算機的難題也是需要人類更高智慧和復雜訓練的任務,例如贏得國際象棋比賽和完成復雜的數學證明。

在1997年,IBM公司的國際象棋計算機“深藍”(Deep Blue)在一次比賽中打敗了俄羅斯的著名國際象棋世界冠軍加里·卡斯帕羅夫(Garry Kasparov)。

人工智能研究人員意識到知識面較窄的專門技術對于計算機來說比對于五歲小孩來說要容易,這包括識別人、與人交談、智能地適應環(huán)境等。

在2011年,也是IBM公司研發(fā)的另一臺專門的計算機系統(tǒng)Watson打敗了人類的“Jeopardy!”游戲冠軍。Watson計算機可以處理語言(包括雙關語、比喻等復雜的語言結構)和一般知識。它可以在三秒鐘之內搜索和分析兩億個頁面的信息。

對于Watson計算機技術的實際應用包括醫(yī)療診斷,在數百萬個文檔中查找與某個案件有關的信息,以及各種不同的商業(yè)決策應用。

在2016年,由谷歌母公司Alphabet開發(fā)的一個稱作AlphaGo的程序,在比賽中打敗了圍棋世界冠軍李世石。

我們下面會簡要介紹一些人工智能應用的例子。這些例子在不久之前還是令人震驚的研究進展,但是現在人們已經對它們習以為常,并且將其應用到了許多企業(yè)、政府和消費者中。

在德國,有一個人在游泳池中突然心臟病發(fā)作,救生員卻沒有看到他沉入了游泳池底。而水下監(jiān)控系統(tǒng)通過攝像頭和復雜的軟件發(fā)現了他,并且提醒救生員,從而拯救了他的生命。軟件可以從正常游泳、陰影和倒影中識別出遇險的游泳者。這種系統(tǒng)目前已經安裝在歐洲和美國的許多大型泳池中。

正如人工智能軟件可以區(qū)分有麻煩的游泳者和其他游泳者一樣,它也可以通過視頻監(jiān)控系統(tǒng)來區(qū)分商店中的顧客是否存在可疑行為,從而表明他可能正在進行偷竊或者其他犯罪行為。

在一些國家名勝古跡景點(例如自由女神像)部署的類似系統(tǒng)還可以發(fā)現是否有人留下了無人看管的包裹—這有可能就是個炸彈,并提醒保安人員。因此,即使沒有持續(xù)的人工監(jiān)測,擁有人工智能技術的視頻系統(tǒng)也可以幫助防止犯罪,而不只是在事后查明肇事者。

搜索引擎使用人工智能技術來選擇搜索結果,并且即使在人敲錯詞語的時候,也能夠確定用戶的真實意圖。它們使用上下文來確定多義詞的確切含義。(例如,“juno”指的到底是航天器、電影、女神、共享出行服務,還是互聯(lián)網服務提供商?)

語音識別已經成為數百個應用程序中的常用工具。我們與我們的智能手機對話,手機可以通過人工智能來弄清楚一個問題是什么意思,并找到問題的答案。

手機還可以采用人工智能技術來知道它的主人是否感到無聊。(例如,反復的檢查郵件或社交網站就可以作為反映無聊的一個線索。)

教外語的計算機程序如果不能識別用戶在說什么,就會以正確的發(fā)音來發(fā)出指令。

空中交通管制員在模擬指揮塔中進行訓練,指揮塔的每個“窗口”實際上都是電腦屏幕。當受訓學員跟模擬的飛行員講話時,計算機系統(tǒng)會做出響應。這種模擬可以在一個安全的環(huán)境中進行更加深入的培訓。即使學員錯誤地指示兩架飛機同時降落在同一條跑道上,也沒有人會因此受到傷害。

人們還會繼續(xù)辯論人工智能的哲學本質和社會影響。計算機系統(tǒng)擁有智能到底意味著什么?

著名計算機科學家阿蘭·圖靈(Alan Turing)曾經在計算機還沒有出現之前就建立了計算機科學背后的基本概念。他曾經提出一個用于檢測計算機是否擁有人類智力水平的測試,現在被稱為圖靈測試(Turing Test)。

在這個測試中,讓一個人(通過網絡)與系統(tǒng)進行交談,談話的內容可以是人選擇的任何主題。如果計算機能夠說服對面的人,讓他以為它是人類的話,那么該計算機就通過了測試。

這樣是否足夠呢?許多技術專家都是這樣認為的(前提是實際采用的是經過了精心設計的測試)。但是這是否就意味著計算機擁有智能了呢?

哲學家約翰·塞爾(John Searle)認為,計算機不是而且也不可能是智能的。

它們不會思考;它們只會操縱符號,而且操縱符號的速度可以非常快。它們可以存儲(或訪問)和操縱超大量的數據,但是它們沒有意識。它們不會理解,它們只會模擬理解的過程。

塞爾使用下面的例子來說明其中的區(qū)別:

假設你不會漢語,把你放到一個放滿了裝有漢字符號的盒子的屋子里,再給你一本用英語寫的很厚的手冊。人們會給你提交漢字符號的序列。手冊會告訴你如何操縱給你的符號與盒子里的符號,以生成一個新的符號序列,并返回給外面的人。要求你足夠細心,不會覺得無聊,而且能夠完全遵循手冊中的指示。

你并不知道收到的符號序列是漢語寫的問題。而你通過查手冊(就像執(zhí)行程序指令的計算機一樣)返回給外面人的則是正確的漢語答案。屋子外的人都會以為你的漢語水平很高!

用賽爾的話來講,他可能會說,雖然Watson計算機的確贏了“Jeopardy!”,但是Watson自己可能都不知道它贏了。

無論我們認為機器是智能的,或者是用比喻的方式使用智能這個詞,再或者說機器是在模擬智能,事實是研究人員和各種組織正在以更快的速度推進人工智能來模擬人類智能。

當谷歌的自動駕駛汽車一開始上路的時候,它們是異常小心的,經常會踩剎車,而且即使因為路邊停了兩排車把路堵上,它們也不會選擇跨越黃線逆行。后來,谷歌公司重新進行了編程,使得汽車駕駛起來更像人類,在有必要的時候也會選擇打破規(guī)則。

17世紀和18世紀的計算器的目標并不雄偉:只是為了自動化完成基本的算術運算。看到一臺沒有思想的機器可以執(zhí)行與人類智力有關的任務,會讓許多人感到不安。

幾個世紀后,加里·卡斯帕羅夫輸給了一個計算機國際象棋程序,這使得人們在很多文章中對人類智慧的價值(或者價值的喪失)表示擔憂。

Watson帶來了更多的恐慌。到目前為止,似乎每個新的人工智能突破都會在起初引起疑慮和恐懼。但是用不了幾年,人們就會習以為常。

當“Jeopardy!”變得如此簡單,每個人都可以做得很好的時候,我們會作何反應呢?當走進一家醫(yī)院,所有手術都是完全由機器來完成的時候,我們會作何反應呢?這難道會比坐在第一架自動電梯或者飛機中更加令人恐懼嗎?當我們可以在網絡上發(fā)起關于任何話題的對話,而不用知道與我們交談的到底是人還是機器的時候,我們會作何反應呢?當大腦中植入的芯片可以把我們的記憶提高到數十億字節(jié)的數據量,并且擁有搜索引擎的功能時,我們又會作何反應呢?這時候我們還算是人類嗎?

03 機器人

機器人是一種機械設備,用來執(zhí)行傳統(tǒng)上由人類完成的體力活,或者我們認為像是人類活動的任務。機器人系統(tǒng)在工廠里負責組裝產品已經有幾十年的歷史了。與人相比,它們的工作速度更快且更加準確。

如今,絕大多數機器人設備都是由擁有人工智能的計算機軟件來控制的。

在牛奶廠里,機器人擠奶設備可以為成千上萬的奶牛擠奶,而奶農們則可以去睡覺或者干別的雜事。

快餐食品店使用機器人食品準備系統(tǒng),以降低成本和加快服務速度。

一個連接到病人數據庫上的機器人藥劑師設備,可以通過讀取條形碼從藥房貨架上選取適當的藥品,檢查藥品之間的相互作用,并處理賬單。

這種機器人的主要目標之一是減少人為錯誤。在醫(yī)院里,機器人會負責配送藥品,它們能繞過障礙,并且會通過無線信號來“按”電梯按鈕。利用3D顯示器和操縱桿來控制機器人設備,醫(yī)生就可以從控制臺完成復雜和精細的手術;同時軟件可以過濾掉醫(yī)生不穩(wěn)定的動作。

機器人可以在對人類來說有危險的環(huán)境中工作,例如:

檢查海底建筑物或通信電纜。在由于爆炸或地震倒塌的建筑物中尋找幸存者。探索火山或其他星球。處理核廢物或其他有害廢物。

曾經有幾年的時間里,索尼公司出售一種機器寵物狗“愛波”(Aibo)。它會(通過提供視覺的攝像系統(tǒng))走路,能夠響應命令,而且會學習。還有幾家公司制造了有點接近人的形狀的機器人,它們會上下樓梯、跳舞,并且能通過面部表情來傳達情感。

然而,正如通用智能對人工智能來說是一個難題一樣,通用動作和功能對于機器人來說也是一個難題。絕大多數機器人設備都是只擁有一組有限操作的專用設備,不同的公司和研究人員正在開發(fā)可以做出智能行動并且執(zhí)行各種不同操作的機器人。

機器人(不管長得像狗還是像人)可以作為老年人和無子女伴侶的同伴和助手。與機器建立感情連接到底是非人性化的,還是對單獨生活或者是生活在養(yǎng)老院里但工作人員無法提供經常陪伴的人們的生活質量的一種提升呢?

如果知道了奶奶有一個機器人伴侶,是否會減輕家庭成員的罪惡感,并導致他們不經常去看望老人呢?我們會慢慢把機器人同伴作為寵物一樣熱情地對待嗎?

可能對于機器人和人工智能系統(tǒng)最大的擔心還是來自它們可能會消滅大量的工作崗位,從而導致很多人失業(yè)和貧窮。另外,還有人擔心隨著人工智能的進步,機器人變得更加聰明之后,它們會反過來消滅人類。

關于作者:

Sara Baase,圣地亞哥州立大學計算機科學系榮譽教授,在計算機科學專業(yè)擁有近30年的從教經驗。她曾三次獲得圣地亞哥州立大學校友會頒發(fā)的杰出教師獎,編寫過多部算法、匯編語言、計算機倫理方面的教材。

Timothy M.Henry,現任新英格蘭理工學院IT研究生主任,在計算機倫理、程序設計、網絡安全和項目管理等方面有超過15年的教學經驗。

本文摘編自《IT之火:計算機技術與社會、法律和倫理》(原書第5版),經出版方授權發(fā)布。