力撐Google前工程師?內地專家曝:AI與人邊界模糊 或將超出控制
自今年6月以來,Google一名工程師稱某AI聊天機械人可能具有自己的「意識」,並稱該AI「令人印象深刻的語言技巧背後,可能還隱藏着一顆具備感知能力的心」。涉事工程師最終被Google解僱,但他留下的有關人工智能的話題仍在網上發酵。
中國科學技術大學教授、中國人工智能學會AI倫理工作委員會負責人陳小平接受《中新社》訪問提到,與科學的邊界不同,AI與人類之間「人文的邊界」已非常模糊,如果AI真的具備人格、情感、道德,一般能力又超過人類,就會出現可控性問題,「到那時人類憑甚麼能夠控制AI?」,他認為要提前防範此事。
陳小平說,依據科學判斷,AI是沒有人格的。另一方面,導致這位Google員工認為AI有「人格」有其客觀原因,比如他可能對這個AI系統產生了共情。
5年前他就做過預測,類似的現象未來會愈來愈多地出現。陳小平認為,目前對人工智能存在不同理解。按圖靈的觀點,人工智能只是模仿人類的某些功能,而且這種模仿不要求必須和人的工作原理相同。比如 Alpha Go 具有下圍棋的功能,但它下圍棋的原理與人是完全不同的,因此沒有人格或人的情感、意識、道德等。
陳小平說,但AI可以模仿人的語言、情感等功能,讓人對AI產生共情,於是一部分人就會認為,「AI是人,或具有人的某些精神品質」,AI和人相比除了硬件都相同,也可以有人格、有情感、有道德。退一步說,僅僅因為AI在科學上沒有情感等人類品質,就可以排除或禁止一個人對AI產生共情嗎?這屬於人文的邊界,這個邊界至少目前非常模糊。
他續指,如果我們認為AI有人格,肯定會帶來很多困擾和負面後果,有些後果非常嚴重。例如若要將其視為人,是不是要給它人類的權利,包括生存權、財產權、投票權等?甚至無論AI做了甚麼危害人類的事情,都要像對待人一樣對待AI。
「幾乎可以肯定的是,只要AI能夠模仿一種功能,那AI的這種功能遲早會比人強,就像Alpha Go下棋一樣。如果AI的通用能力也超過人,到那時人類憑甚麼能夠控制AI?這是個疑問。我們現在就要思考這樣的問題,提前做好風險防範。」他說,現在人工智能已經讓一些人產生了共情,將來會讓愈來愈多的人產生共情,這件事客觀存在,將給人機關係、人際關係帶來巨大的新挑戰和新機遇,是新的重大課題。
他指出,人工智能應該分為人還是物,或許有第三種可能,將其看成「非人非物的第三種存在物」。科學上,它不是人;從人文的角度說,它不是物。這種觀點與根深蒂固的「二元論」是根本不同的,所以人工智能帶來的顛覆實際上遠超科技範疇。如果以這種觀點考慮,能化解很多矛盾和難題,包括法律難題,而且可以讓科學與人文在某種程度上重新「握手言和」;但其中仍有挑戰,例如人類愛上人工智能等。