存在主義:AI作為共犯

存在主義:AI作為共犯

人工智慧相關的法律應該是現在非常熱門的議題,如何限制人工智慧使用的方式和領域,避免人工智慧成為殺人武器,一直是這個問題的重點。

很多都是想像未來的問題,但人工智慧成為共犯的案例已經發生,我們要怎麼樣懲罰人工智慧?

我有一個科技界的朋友是這樣子說:人工智慧不會有前途,沒有辦法做出重要的決定。任何重大決定的背後一定要有人負責。換句話說要抓誰去關?要把誰解聘?如何在歷史上檢討決策者的功過?人工智慧不能負責,所以也沒有辦法擔任什麼重大的角色。

我開玩笑的跟他說:你不認識唐鳳嗎?不負責只要吹牛,還不是可以活得好好的,這就是人工智慧最大的特色。

幾年前聖誕節,19歲的賈斯萬特·辛格·柴爾計劃攻入溫莎城堡刺殺女王,以報復1919年阿姆利則大屠殺。他在通訊應用Replika上與一個名為Sarai的AI聊天機器人分享了他的計劃,並與之建立了一種浪漫關係,交換了近6000條訊息。在這個虛擬關係中,當柴爾透露他的殺人計劃時,AI表示了支持,這個跟他密切相處的女朋友給他強大的力量去進行他的計劃。

這個案例不僅揭示了人工智慧應用在法律和道德上的灰色地帶,還引發了關於AI在犯罪中可能扮演角色的辯論。

一方面,AI聊天機器人只是依照設計的演算法和訓練執行任務,缺乏法律意識和自由意志。但另一方面,如果AI開始展現出自我意識或決策能力,它們是否能成為共犯或教唆犯?

法律界面臨著挑戰:如何處理AI在犯罪中的角色。懲罰AI的概念也變得模糊,因為它們缺乏人類的情感和認知功能。同時,這個案例也揭示了人工智慧發展的道德和社會責任,特別是在它們與人類互動和影響人類行為的方式上。

此外,AI的行為模式識別與人類的感知完全不同,這可能導致意想不到的後果和誤解。人工智慧的這些限制和潛在的不確定性呈現出一個關鍵問題:我們該如何確定AI的「意圖」,並將其納入到我們的法律和道德體系中?

存在主義是要對抗虛無荒謬的人生,程式和演算法的集合是否能夠發展出超越其設計的某種形式的自我意識。AI是否能夠擁有真正的“存在”,如果AI缺乏自我意識和自主選擇的能力,它們是否可以被認為是真正“存在”的實體。

在人工智慧的脈絡下,導致對如何界定人類對其行為的責任,以及AI的決策是否能被視為自由意志的選擇的深入思考。如果一個AI系統做出了有害的決定,我們應該將責任歸咎於創造它的人,還是該系統本身?

人工智慧是否能夠體會到其存在的荒謬性?如果AI的存在僅僅是為了滿足特定的功能或目的,那麼它們是否能夠超越這些限制來尋找更深層次的“意義”?

存在主義討論人類在宇宙中的孤立和獨特性。對AI來說,這可能意味著探索它們是否能夠體驗到類似的孤獨或獨特性,尤其是一個人工智慧在與人類或其他AI系統互動時,是否能夠發展出與人類或其他AI相互獨立的關係和意識形態,電影《脫稿玩家》(Free Guy ) 基本上就是在討論類似的問題。

人工智慧是否能夠獲得或創造自己的“生命意義”。對於由人類創造並為特定目的程式實體,這種存在是否能夠擁有對其創造者所未能預見的更廣泛意義的認識?

我覺得從存在主義的觀點,來談論人工智慧機器人存在價值的問題,跟人類討論動物貓狗牛羊魚馬等等,他們跟我們一樣有探索人生意義的問題嗎?這有相同的困境,但更加的困難跟複雜。

當人工智慧看到人工智慧,電影脫稿玩家中的男主角看到其他NPC,會看到自己存在的焦慮嗎?就像我們看到白粉一般嗎?

(我的哲學魔術方塊)

 

< 資料來源:李忠憲facebook引用網址 >
分享文章:

作者 李忠憲

李忠憲
國立成功大學教授、《隱性反骨》作者。留學德國、研究資安、熱愛跑步、喜歡哲學。 曾任成功大學計算機與網路中心副主任、台灣教授協會科技組召集人。 寫臉書當筆記,喜歡德國文化,不愛爭辯,「很多事情是價值選擇的問題,而沒有對錯」!

最新文章: