2022年11月10日 星期四

AI、著作權與「準人格權」

 2022年11月9日,我邀成功大學戴東源教授邀請在「科學與工程倫理」通識課程視訊演講「AI可以有感知/意識嗎?」


我因為同學的發問,當場提出一個關於AI的預言:

我預言未來會有哲學AI程式,而且它生產出的哲學論文,可以通過某個哲學期刊的審查而被刊出。

可能未來有哲學家和資訊工程師合作這種哲學AI,然後作上面的實驗,未告知期刊文章是AI寫的,想讓期刊編輯認為那是哲學家寫的文章,當被刊出時,再公佈那篇論文是AI寫的。這個實驗的目的是想測試或檢驗AI是不是能寫作哲學論文的能力。

我把它寫下來,看看這預言未來會不會應驗。

這可能是個可怕的預言!當然,即使實現了,我相信哲學家還是不會失業啦。

我在臉書上貼出這則預言,馬上有朋友貼出已經有人命令另一個AI文章寫作程式GTP-3創作一篇關於它自己的文章,去投稿學術期刊,接受審查。不過,在這個案例中,期刊似乎知道那文章是GTP-3自己寫的。

雖然我仍然不認為像LaMDA或GTP-3有自我意識,但是確實「作者權」和「著作權」的歸屬問題會先跑出來。

我想到一個新問題,不同的AI文章或對話程式所産生的作品,也都放在網路上,可能會互相被援用,但不確定是否所有程式都內建「引用」的指令?看來GTP-3內建了「引用」的指令。但是 LaMDA有沒有呢?它能不能自我學習「引用」(quotation)的行為?

我想像的問題是:假定有人命令LaMDA也創作一篇和GTP-3有關的文章,但現在有關GTP-3的文章非常少,就GTP-3自己寫的,那LaMDA會不會寫出一篇和GTP-3寫出來的文章「大同小異」?但LaMDA卻沒有標明是「引用」GTP-3的文章?結果GTP-3指控LaMDA抄襲?違反AI寫作倫理?

哈哈,在談這個問題時,我已經不得不賦予GTP-3和LaMDA某種「作者」的「身分」(identity)了,雖然它們的「法定代理人」(legal agent)是創造它們的公司。

所以,我想我們已經需要一個「準人格」(quasi-personhood)的概念,以便用在GTP-3和LaMDA之上了。

然後,隨著這兩個AI程式越來越精巧(可能還有其它的AI程式),它們的各種「權利」:著作「人格」權、著作財產權、甚至「財產權」本身的問題都會浮現。

GTP-3和LaMDA創作的著作如果可以獲利,那麼所得該歸誰有?下指令的人?創作的公司?或者AI程式自己?

一種可能性是法律賦予GTP-3和LaMDA「準人格」的地位,在財產權的擁有上類似「法人」,有獨立的財產權,因此,創作它的公司應該開一個專屬戶頭,它們的創作所得必須納入此戶頭,只能支付工程師來用於把它們進行改良、複製、升級的用途?不得作為它用?

談到這裡,不得不說艾西莫夫和席維伯格的《正子人》所描繪的情節細節,在未來將一一上演。

沒有留言:

張貼留言