【本文從我在「台大校友雙月刊」寫的專欄(最近兩期)節錄修改,作為我上學期開的通識課「IC設計的產業面與社會面」的旁白。】
最近幾次有人找我演講,都是挑明了要我講物聯網(Internet of Things, IOT)的美好前景,可是我左思右想,IOT這麼多人談這麼久了,它的美好前景卻仍遠在天邊,大家至今不得其門而入,這到底是怎麼回事呢?原來的Internet是聯結人的網路(當然是透過電腦、手機、平板等),提供人直接的應用服務,所以規模大約就是幾十億人跟一兩百億聯網裝置,而網路上流通的資料也主要是人(利用電腦或其他工具)所創造出來的,只要人口穩定了,資料流通量也沒有無窮成長的意義。現在IOT讓我們有機會把各種物品加上感測器,使各種物品能自行產生資料,而大量的感測器資料透過網路連上雲端,可以自行做大數據(Big Data)分析,產生有用資訊甚至新知識,轉而以各種應用服務的方式直接或間接的傳遞給需要的人或物品。整個過程可以不必假手人類,是物品自主互聯的網路。只是,資料不是人直接使用,資料流通量就與聯網物品數一樣,可能因為人的貪婪而無止盡的成長,於是專家們默契十足的宣稱IOT爆發性的成長將造成處處是寶山,人人有機會,商機無窮。當然十幾年過去了,大家望穿秋水之後,仍在苦苦尋找通往寶山之途。其實IOT是一個概念而不是一個產業,所以並沒有所謂IOT產業這樣一個講法。IOT的概念的確可以影響甚至改變許多既有產業,取代傳統的概念與模式,當然也可能促成新的產業的建立(並取代某些舊的產業)。不像Internet的規模受限於人口,IOT這樣一個聯結物品的網路,它的規模好像可以無限制的成長(因為每個人可以支配的物品總數可以無限制的增加),直到耗盡地球資源或觸發大量滅絕為止,而這是最可怕的。所幸,對於如何讓IOT成功運作,至今眾說紛紜,實務上卻仍一籌莫展,尚未造成嚴重傷害,而出乎大家意料之外的,最主要的功臣可能是經濟的限制。
的確,全球的經濟規模本質上是該受限於人口數的(人類的能源消耗量亦然),而不應無限制的成長,所以任何超乎合理經濟規模的成長都是不切實際的。人類社會發展的目標到底是追求永不止歇的經濟成長還是讓所有人生活過得更好?如果所有人的生活與基本需求都已獲得穩定的照顧,那經濟發展應該是跟人口成長(或衰退)要搭配的。如果地球上已獲得穩定照顧的人口不再成長,經濟規模也就沒有理由再擴大,否則就是貪婪而過度消耗地球資源,這點恐怕我們還得就教於恐龍。恐龍生存在地球上超過一億六千萬年,可見它們並不貪婪,而是與其它物種共存共榮,對人類而言這就叫「永續」(雖然所有物種最終都要歸於塵土)。我們教給學生的是如何促進科技的進步及驅動經濟的成長,但是同時也該教他們思考永續這個問題。
另外還有一個我們正面臨的嚴重問題。人類社會秩序的維持,人群的和睦相處,主要靠的不是法律,而多半是道德(這樣講如果冒犯了學法律的您,請原諒我的偏見),因為法律與道德(情理)無法完全契合,也永遠跟不上社會變遷的腳步,而道德是行為能不能被社群接受的不變(或緩慢調整)的基準。不只人的社會有道德基準,許多其他群居動物也可能有他們自己的道德基準。可是你會說,如果有一個村子,裡頭的人完全沒有道德的觀念,私慾凌駕一切,那是不是只有法律可以維持秩序,讓大家和平相處?但是即使是這樣,法律的制定應該是根源於人群的共同意見與需求,亦即要符合道德的觀念,所以這是矛盾而不可能的,因此道德還是最基本的行為規範的基礎。可是有一個問題來了,科技的進步讓我們可以預期不久的未來真的會有一種新的“人”存在於我們的社群裡,這種人叫機器人。機器人具有人工智慧,但是如果它犯錯(相較於人的利益),你要用法律制裁它嗎?還是你要教它道德(就像要狗學習人的道德一樣)?機器人可以理解道德嗎?科幻小說家Isaac Asimov在他1942年的短篇小說《Runaround》裡提出了機器人三律(The Three Laws of Robotics):
1. 機器人不可以傷害人,也要盡力避免人受到傷害。
2. 機器人必須聽從人的命令,除非違反第一條法律。
3. 機器人必須盡力維護自己生命,除非違反第一條或第二條法律。
這三條法律雖然後來廣泛被引用,不過顯然不夠完備,無法讓機器人跟人和平共處。問題是,法律與道德本就無法完全契合,因此迄今也沒有人可以幫機器人制定完備的法律,保證機器人在人類社會中不會出現與人衝突的狀況。事實上,機器人是人創造的,它的智慧與靈魂是創造者植入它身體裡的軟體。既然人會刻意傷害其他人或物是千古不變的行為,人類未來可能被機器人消滅的疑慮便一直是存在的。當我們創造人工智慧的同時,我們也能為機器人創造人工道德嗎?人工道德是什麼?是人的道德的一部分還是超出了人的道德範疇?人的道德又是什麼?誰是真正的有德之士?這些問題沒有人能回答得讓所有人滿意,所以人類在擔心步北極熊家破熊亡後塵的同時,也得要擔心鐵奴當道,禍起蕭牆吧。
學術界爭議性的行為也常常是道德問題而非法律問題,因此學者們逐漸了解大家必須一起訂定學術倫理的規範,不能老是歸咎於法律。只是道德的問題往往因人因時因地而異,因此雖有倫理規範,爭議卻從不間斷,違反學術倫理的情形仍層出不窮,社會上其他專業領域的道德問題亦復如是。既然人類的道德問題沒有人能徹底解決,它所延伸的人工道德與機器人倫理的問題更將是雪上加霜。我覺得在理工領域裡,我們盡可能教學生發展機器人各項專業知識的同時,在通識課裡也應該探討這個問題。
吳誠文 老師
國立清華大學副校長
國立清華大學電機工程學系教授