AI「說謊」有先例:託付工程必須慎重考慮
近期因為太空探索科技公司(SpaceX)首席執行官埃隆·馬斯克等科技巨頭和相關人士聯署,要求暫停人工智能(AI)的研究,引發各界對AI發展的關注。一般民眾與專家對AI可能取代各領域工作表示擔憂,甚至做出由於太先進而可能危害人類等等的預判。
筆者也持同樣看法,可是除了AI的超強計算功能,更該關注的是它的專業度和道德判斷能力。專家都認為按趨勢來看,AI在不久的將來具備代替大部分技術類工作的能力。可是技術層面的工作範圍很廣,當中也包括涉及生命安全方面相關的工程領域。
具體地說,在土木工程方面,AI的運作和功能能不能符合新加坡建設局相關條例,例如新加坡的工作場所安全與健康(安全設計)法規2015(Workplace Safety and Health(Design for Safety)Regulations 2015)所列出對於「安全設計」理念的要求。其中的條款指定,設計者必須從源頭降低設計風險。筆者也認為,這條確實能從流程上游把控,並且有效引導下游工程的質量和方法。
在建築結構的設計方面,AI或許可以模仿類似人與機器界面的方式,對設計軟件進行操作,完成在設計技術層面的一個重要步驟,可是它能否確保設計方案安全可行,就取決於它能否準確理解關於一般民眾及使用者對安全和風險的定義。設計人員對於因結構設計出現錯誤而可能導致人員傷亡的事故,一般會產生恐懼、憐憫之心,所以涉及使用者人數多的建築物,在設計計算時就自覺地更加謹慎,方案也較為保守。
ChatGPT有何弱點?點擊以下圖輯↓
筆者以兩個比較常見且體形不大的結構構件為例加以說明。比方說在原有的一棟大廈出口處,加設新的懸臂式檐篷的支撐構架時,尤其在檐篷的懸臂跨度較長的情況下,在該支撐受拉的斜鋼索與它和主建築的連接部分,所須採用的螺栓的計算和材料的選擇,就特別重要,確保新舊構件穩固的連接,同時也要計算和綜合評估現有建築物的承受能力。另外,在安裝螺栓的施工時,對現有結構構件損壞的可能,和在室外高處施工的客觀條件和侷限,可能對螺栓受力的影響等等。這些都是保證結構穩固的關鍵所在。
工程師通常會把這些所能預測的情況和考量,融入並體現在設計方案中。這不僅是責任,而且是有意識地保證設計的安全性和可行性,便於施工並避免發生嚴重意外。這相比於設計台階的攔杆結構,考慮會多一些。原因就是進出大廈的人流量和使用頻率很高,檐篷結構的倒塌,會直接砸到人群中,釀成嚴重災害。反觀台階的攔杆,即使嚴重歪曲變形甚至脱落,導致的後果有一定的差別。當然,構件的損壞也必須避免。
AI是否能意識到以及分辨出此類涉及安全層面的差異,而且做出相應的考量和調整?如果讓一個未接受正式工程技術訓練的人員,通過AI完全操作設計軟件,而將得出的結果加以運用的話,情景是讓人擔憂的。
再者,在施工階段,發展商有義務舉辦安全審查會議,並且由設計負責人和施工隊成員評估及列出所有可預測的風險,並討論如何減低和消除那些潛在風險。風險評估表必須列出不同施工場景可能遇到的事故的嚴重性,以及發生概率,給予綜合的安全級別。為此,工程團隊必須商討和採取相應措施,把風險降到安全或可接受的水平。
AI縱然有巨大的數據庫、數據處理和組合能量,但能否正確理解民眾對安全的定義,從而合理地評估以及列出安全評級,並且符合條款的規定,還有待觀察。
事故嚴重性反映人員傷亡數量的多寡,而設計方案相應的調整和實施,正有賴於道德判斷和作為。筆者不曉得AI是否會如一些人士所稱,能做出此類判斷,但哪怕出現絲毫錯誤的可能性,都必須得到重視。它誠然有超凡數據整合功能以及初步思考能力,可是筆者不禁要問,它是否有基本的道德底線,而這底線不會輕易讓程序員更改,或者隨着不斷湧進的海量訊息而大篇幅變更。
畢竟,AI「說謊」已有先例,筆者不禁要問,攸關你我的安全事務,是否能放心由AI全權負責?對此,筆者還是認為,必須仔細觀察後續發展,慎重考慮可託付於AI操作的領域以及工作性質,並且時刻權衡利與弊。
作者謝睦澤是工程師,本文獲《聯合早報》授權轉載