Monday, February 26, 2018

Paperclip Maximizer


在上个星期六时候,早上看面子书的时候,看到一则很有趣的思想实验,关于AI 的,叫做Paperclip Maximizer! 

顾名思义,那就是把回形针做到极致的意思。但是,这个思想实验不是这么容易就说得清楚的。

让我们想像一个情景。专家要求AI 制作大量回形针,越多越好。那么一开始的时候,AI 当然会先去找材料去制作。但是因为它们的工作效率是超级厉害的,很快就发现原料已经不够了。那么它们会开始使用一切能用的物件来制作回形针,如电线,汤匙等。

可能到最后,它们发现我们人体内的原子也可以制作回形针,进而杀掉我们来制作回形针!这就是由来自瑞典的哲学家,Nick Bostrom 提出的 Paperclip Maximizer 关于人工智能所可能带来的毁灭性结果!

这其实与我之前说过的, AI 需要在一开始的设定就清晰的定义。否则很大可能会毁灭世界,而原本的目的根本与毁灭世界无关!

然而人类的问题或者说弱点就是,我们无法做出那么长远的预测!

虽然说这个思想实验是对的,然而我没有从头到尾的读完他的论文,所以不好直接做出评论。第二点是这里只是假设这个实验是无法逆转,只能一路到底的做下去而已!

第三点则是,我们的目的可能真的善良,但是没有到最后,我们无法预测最后会出现的问题! 简单来说,我们不断给一个人吃巧克力,但无法得知最后他会否得糖尿病一样!

那么反过来想,要是我们一开始就要AI 大量杀人,会否因此因为少了很多坏人,或者导致人类前所未有的团结互助?结果我们人类退去某个国度,再也没有文明病,身体变得健康,而AI 的目的已经不复存在,结果它们没有目标,自己发明人类供自己杀戮?

那么这目的与结果是可以很Epic 的!

问题来了,你会相信AI 的发展导致人类灭亡还是导致更好的生活呢?

No comments:

Post a Comment