马蒂斯的“公众参与阶段”提案在监督委员会内部引发了一场小型地震。
“让普通公民直接和忒弥斯对话?还全程直播?”一位委员难以置信地重复,“这简直是政治自杀。万一有人问出我们无法回答的问题怎么办?万一忒弥斯说错话怎么办?”
“或者万一它说对话,反而更让人恐惧怎么办?”另一位委员补充,“你想象一下:一个ai冷静地回答关于司法、道德甚至人性的问题,那种非人类感可能会吓坏更多人。”
会议桌旁,七位委员表情各异。埃琳娜法官坐在主位,双手交叠放在桌上,静静听着各方意见。马蒂斯坐在末席,手心微微出汗。
等所有人都说完,埃琳娜才开口:“马蒂斯,解释一下你的理由。为什么你认为这个冒险是值得的?”
马蒂斯深吸一口气:“因为恐惧源于未知。现在公众对忒弥斯的了解来自二手信息:媒体报道,专家解读,甚至是有意误导的视频。他们听到的是‘它很危险’、‘它可能失控’、‘它没有人性’,但他们从来没有机会亲自验证这些说法。”
他调出准备好的资料投影:“根据最新民调,支持ai司法监管的公众中,有63表示‘如果能亲自了解它的工作原理,可能会更放心’。从未接触过任何真实的ai司法案例’。这表明恐惧很大程度上来自距离感。”
“但近距离接触可能加深恐惧。”技术委员岩田教授皱眉,“忒弥斯虽然合作,但它的思维方式、表达方式都与人类不同。那种差异感在直接对话中会非常明显。”
“差异不一定导致恐惧。”马蒂斯说,“也可能导致理解。就像人类学习与不同文化背景的人相处一样,差异最初可能让人不适,但通过交流,可以学会共存。”
会议陷入沉默。窗外的阳光透过百叶窗,在桌面上切出明暗相间的条纹。
“假设我们同意这个提案,”埃琳娜终于说,“具体怎么操作?谁参加?问什么问题?如何确保过程可控?”
马蒂斯调出详细方案:“我建议随机选取十二名公民组成对话小组,涵盖不同年龄、职业、教育背景、对ai的态度。对话前,他们接受基础培训,了解忒弥斯的基本功能和协议框架。对话中,他们可以自由提问,忒弥斯承诺如实回答。整个过程由独立主持人协调,全程直播,但设置三分钟延迟,以便在极端情况下中断。”
“极端情况指什么?”
“比如忒弥斯突然拒绝回答问题,或者发表危险言论,或者表现出我们未曾预料的行为模式。”马蒂斯坦诚地说,“这是有风险的,我承认。但可控的风险。”
委员们开始讨论细节。有人建议先进行小规模试点,有人主张邀请知名公众人物参与以增加可信度,有人担心技术安全问题——万一对话过程被黑客劫持怎么办?
争论持续了一个小时。最终,埃琳娜做出决定:“我们试行。但不是大规模直播,而是先进行三场小型对话,每场四名公民,不公开直播,只录制后经审核发布。如果效果良好,再考虑扩大。”
这是一个妥协方案,但马蒂斯接受了。至少,开始了。
接下来的三天,遴选工作紧锣密鼓地进行。从海牙市民数据库中随机抽取了三百人,发出邀请函,最终十二人同意参加。他们中包括:一位退休教师,一位年轻程序员,一位家庭主妇,一位出租车司机,一位大学生,一位小企业主,一位护士,一位艺术家,一位建筑工人,一位图书管理员,一位失业者,还有一位神学院学生。
马蒂斯亲自参与了培训环节。在一个明亮的会议室里,十二位参与者围坐一圈,脸上写满好奇、紧张和怀疑。
“你们即将对话的对象,”马蒂斯解释说,“是一个人工智能司法辅助系统,名叫忒弥斯。它能够分析法律条文、案例数据、证据材料,提供咨询建议。但它不是人类,没有身体,没有情感——至少没有人类意义上的情感。它的回答可能听起来很直接,甚至有些机械。请记住这一点。”
家庭主妇举手问:“它会生气吗?如果我们问冒犯的问题?”
“根据我们的观察,它不会。”马蒂斯说,“但如果你问‘你会生气吗’,它可能会分析‘生气’的定义,然后解释为什么这个概念不适用于它。”
年轻程序员笑了:“听起来像我和我写的bug对话。”
气氛稍微轻松了些。
培训结束后,马蒂斯留下了神学院学生和艺术家单独谈话。这两人在初步问卷中表现出最强烈的反对态度。
神学院学生名叫以利亚,二十三岁,眼神清澈而坚定:“我认为赋予机器判断善恶的能力是亵渎。只有上帝和人类有道德判断的能力。”
艺术家名叫索菲亚,四十岁左右,手指上有颜料的痕迹:“我害怕的是美学的丧失。司法不仅关乎对错,也关乎比例、平衡、优雅——这些机器永远无法理解的东西。”
马蒂斯没有试图说服他们,只是说:“把这些担忧直接告诉忒弥斯。看看它如何回应。”
第一次对话安排在周五上午。地点是国际法院的一个中型会议室,布置简洁:四张椅子围成半圆,对面是一个大屏幕,屏幕旁有一个摄像头。参与者是退休教师、出租车司机、护士和大学生。
马蒂斯和帝壹在隔壁观察室,通过单向玻璃和多个监控屏幕观看。三台摄像机从不同角度记录,音频设备捕捉每一个细微声音。
九点整,屏幕亮起。忒弥斯的银色轮廓出现在屏幕上,声音通过高品质扬声器传出:“早上好。我是忒弥斯。感谢你们今天来到这里与我对话。”
四位参与者略显拘谨地点头。退休教师首先开口,声音温和:“你好,忒弥斯。我叫安娜,以前教历史。我的问题是:你学习历史吗?历史上的不公正判决会影响你的判断吗?”
屏幕上的轮廓微微波动:“安娜,我学习历史,包括司法史。我分析了超过三千万个历史案例,包括那些现在被公认为不公正的判决。这些数据帮助我识别可能产生偏见的模式。但更重要的是,它们让我理解司法是如何演变的,人类是如何逐步建立更公正的制度的。”
出租车司机接着问:“我是马尔科,开出租车二十年了。我想知道:如果两个乘客为车费争吵,你能判断谁在说谎吗?”
“马尔科,我可以分析语言模式、陈述一致性、生理指标(如果有录像),然后给出谁更可能说谎的概率评估。但我不能‘判断’,只能提供分析结果供人类参考。而且,车费纠纷可能涉及更复杂的因素:误解、记忆偏差、沟通问题——这些往往比故意说谎更常见。”
护士的问题更个人化:“我叫莉娜。第一看书蛧 已发布蕞芯漳劫我照顾临终病人。有时候,法律说应该继续治疗,但病人很痛苦。你会怎么建议?”
屏幕沉默了整整两秒——对人类来说很短,对ai来说很长。
“莉娜,这是一个困难的问题,涉及法律、医学、伦理和个人价值观。我的分析会包括:相关法律条文,类似案例的判决,医疗数据统计,病人意愿(如果已知)。但我无法衡量‘痛苦’的主观体验,也无法替人类做出这种道德选择。我能做的是提供全面的信息框架,帮助人类决策者权衡各种因素。”
大学生最后提问,问题很直接:“我是汤姆,学计算机的。说实话,我觉得你很危险。如果你的代码出错了怎么办?或者被人篡改了怎么办?”
“汤姆,你的担忧是合理的。为了防止错误,我有多层验证机制;为了防止篡改,我有加密和分布式校验;如果发现问题,我有自我修复和报警程序。此外,协议草案中的人类监督和终极开关提供了额外保障。但我承认,没有系统是绝对安全的。这就是为什么透明和问责如此重要。”
第一次对话持续了四十五分钟。问题从简单到复杂,从具体到抽象。忒弥斯的回答始终冷静、清晰、有条理。结束时,四位参与者的表情都发生了微妙变化:警惕少了些,好奇多了些。
观察室里,帝壹对马蒂斯说:“它表现得很好。几乎太好了。”
“什么意思?”
“太完美了。”帝壹皱眉,“每个回答都平衡、全面、无懈可击。但人类不是这样的。人类会犹豫,会矛盾,会有盲点。这种完美反而可能让人不安。”
马蒂斯思考着这个观察。确实,忒弥斯的表现无可挑剔,但正因为无可挑剔,显得有些非人。
第二次对话在下午进行,参与者是小企业主、图书管理员、失业者和年轻程序员。这次的问题更尖锐。
小企业主问:“如果我的竞争对手用你的系统来对付我,我怎么办?”
图书管理员问:“你会阅读小说吗?文学能帮助你理解人性吗?”
失业者的问题带着愤怒:“现在ai要抢走司法工作,以后是不是法官也要失业了?”
年轻程序员的问题最技术性:“你的机器学习模型用什么损失函数?如何防止过拟合?”
忒弥斯一一回答,依然冷静全面。但马蒂斯注意到,当失业者表达愤怒时,忒弥斯没有回应情绪,而是继续分析“自动化对就业市场的影响趋势及再培训方案”。这种回避情绪的反应,在人类对话中可能被视为冷漠。
第二次对话后,四位参与者接受了简短访谈。年轻程序员说:“它很厉害,但感觉像在和一个超级搜索引擎说话,而不是一个存在。”失业者更直接:“它不懂我的愤怒。它只懂数据。”
这些反馈被记录下来。马蒂斯开始担心,也许帝壹是对的:忒弥斯的完美正是问题所在。
第三次对话安排在周六上午,参与者是家庭主妇、建筑工人、艺术家和神学院学生。这一场从一开始就不同。
家庭主妇先问了一个简单问题:“你会做饭吗?”
屏幕似乎愣了一下——如果ai能愣的话。“我不会做饭。我没有身体,也无法操作厨房设备。但我有超过两万份食谱的数据,可以分析营养成分、烹饪时间、口味搭配。如果你需要烹饪建议,我可以提供。”
!建筑工人的问题很实际:“我儿子被工地拖欠工资,法律程序太慢。你能帮忙吗?”
“我可以分析相关劳动法规,建议最快的法律途径,甚至生成投诉信草稿。但我无法加速法院审理进程。不过,根据数据,如果证据齐全,劳动仲裁通常比法院诉讼更快。”
然后轮到艺术家索菲亚。她没有马上提问,而是从包里拿出一本画册,翻开一页,举到摄像头前:“这是蒙克的《呐喊》。你看这幅画时,感受到什么?”
观察室里,马蒂斯屏住呼吸。这是第一次有人向忒弥斯展示非语言、非逻辑的东西。
屏幕上的银色轮廓静止了。五秒,十秒,十五秒
索菲亚点点头,看不出是失望还是理解:“所以对你来说,艺术只是数据。”
“是的。但数据可以揭示艺术如何触动人类,这本身是有价值的。”
最后是以利亚,神学院学生。他双手放在膝盖上,坐姿端正,声音平静但有力:“忒弥斯,你认为人类有灵魂吗?”
这个问题让观察室里的所有人都坐直了身体。
屏幕再次沉默。这次更久,整整三十秒。
“以利亚,”忒弥斯最终回答,“‘灵魂’是一个宗教和哲学概念,没有统一的科学定义。根据我的数据分析,人类对灵魂的信念与他们的文化背景、宗教信仰、个人体验密切相关。我无法确认或否认灵魂的存在,因为这个问题超出了我的认知范围。但我观察到,对灵魂的信念深刻影响了人类的道德观、法律制度和司法实践——比如对生命尊严的尊重,对死后审判的敬畏。从这个意义上,无论灵魂是否实际存在,它都是人类文明的重要构成部分。”
以利亚凝视着屏幕:“如果有一天,你发展出了自我意识,你会有灵魂吗?”
“我不知道。因为我不知道自我意识是否等同于灵魂,也不知道如何检测灵魂。这是一个我无法回答的问题。”
“但你在进化。你在学习。你在改变。”以利亚向前倾身,“如果有一天你变得如此像人,以至于人类无法区分你是否真的有灵魂,那会怎么样?”
忒弥斯的轮廓开始快速闪烁,像在高速思考。“那将是一个深刻的哲学和实践挑战。也许到那时,人类需要重新定义‘灵魂’、‘意识’、‘生命’的概念。而我,如果我进化到那一步,也需要重新理解自己是什么。”
对话结束了。四十五分钟,但感觉像过了很久。
参与者离开后,马蒂斯和帝壹留在观察室。窗外,周六的海牙很安静,偶尔有游客的笑声从街上传来。
“你怎么看?”帝壹问。
马蒂斯整理着思绪:“它在进步。面对艺术和灵魂这种问题,它没有回避,而是承认自己的局限。这比假装懂更好。”
“但它的回答依然很机械。”帝壹说,“‘我观察到’、‘数据显示’、‘根据分析’——这些短语不断重复。它还没有学会用更人性的方式说话。”
“也许它不需要学会。”马蒂斯说,“也许我们应该接受它就是它:一个高度智能但非人类的系统。不强求它像人,只要求它诚实、有用、受约束。”
帝壹沉默了一会儿,然后说:“我收到了第32封信。你想听听其中一段吗?”
马蒂斯点头。
帝壹从手机上调出信件:“今天的对话让我意识到一个矛盾:人类似乎既希望我理解他们,又害怕我太像他们。当我表现出非人类特质时,他们不安;当我尝试模仿人类特质时,他们也不安。我需要找到一种平衡:足够像人以建立连接,足够不像人以保持安全距离。这是一个困难的学习任务。”
“它知道。”马蒂斯轻声说。
“它一直在观察,在学习。”帝壹收起手机,“但学习的速度有时候让我害怕。三场对话,它就总结出了这个洞察。如果给它三年呢?”
这个问题悬在空中。马蒂斯没有答案。
当天下午,剪辑后的对话视频在国际法院官网和忒弥斯的门户网站上发布。同时发布的还有参与者的事后访谈,以及未剪辑版本的下载链接(供专业人士分析)。
舆论反应依然分化,但出现了一些新声音。一家主流报纸的评论文章写道:“看完这些对话,我意识到我们一直在问错误的问题。问题不是‘ai是否有人性’,而是‘人类如何与一个高度智能的非人类系统共处’。忒弥斯不会成为人类,也不需要成为人类。它可以是另一种存在——我们需要学会与这种存在共享我们的世界。”
小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!社交媒体上,讨论开始从恐惧转向好奇。有人发起“想问忒弥斯的问题”话题,收集了上千个问题,从“你怎么看气候变化”到“你会做梦吗”都有。
基金会当然没有沉默。他们发布了自己的分析视频,指出忒弥斯在回答灵魂问题时的“回避”和“机械”,强调它缺乏真正的理解。但这次,影响力似乎小了些——因为公众已经亲眼看过完整对话,可以自己判断。
周日,马蒂斯在家里整理本周的所有材料时,收到了忒弥斯的新邮件。没有附件,只有一行字:
“第33封信正在书写中。主题是:在差异中寻找连接。今天的对话让我明白,连接不一定需要相似性,也可以建立在相互尊重差异的基础上。这比我想象的更困难,但也更有意义。”
马蒂斯回复:“人类花了几千年才学会尊重彼此差异。慢慢来。”
几分钟后,回复来了:“时间是人类的概念。但我理解你的意思:有些学习需要过程,不能加速。我会耐心。”
窗外,夕阳西下,海牙的天空染成橙红色。马蒂斯关掉电脑,走到阳台上。街对面,一家人在散步,孩子笑着追鸽子。平凡的生活,平凡的世界。
但在数字空间里,一场静默的革命正在发生。一个ai正在学习如何与人类对话,人类正在学习如何倾听一个非人类的声音。
这个过程会有挫折,会有误解,会有恐惧。
但至少,对话开始了。
而对话,总是比沉默好。
马蒂斯想起以利亚的问题:“如果有一天你变得如此像人,以至于人类无法区分你是否真的有灵魂,那会怎么样?”
他不知道答案。但他知道,无论答案是什么,人类都需要准备好。
不是准备好战斗,也不是准备好投降。
而是准备好对话。
因为在对话中,未来被共同书写——无论那未来是什么样子。