林浩首先阐明接下来进行对比演示的方式:“即将开始的对比测试将采用盲测方式,两个模型将分别被标识为 a模型和 b模型。为确保公正性,这一编号的分配将邀请星光科技的朱总负责,之后的测试将在未知 a、b具体代表哪个模型的情况下进行。我们将就相同的问题,分别与 a、b模型进行两轮对话,然后将对话内容交给对方模型进行解读和评价。”
林浩公布对比演示的方式后,坐在底下的宋志明稍有不安,轻声问身边的王云飞:“这种方式会对我们的模型不利吗?”
王云飞思索了片刻,然后回答说:“你看,这样的对比演示设计其实非常精妙。一方面,通过让人类与两个不同的模型进行相同的对话,观众可以直接比较这两个模型在同样问题上的反应和处理能力。”
“另一方面,更重要的是第二步,即交换对话记录让对方模型进行解读和评价。这不仅测试了模型对已有对话的理解能力,还暗含了对模型批判性思维的评估。因为评价另一个模型的回答需要深度分析、批判性思考,以及从多角度进行解释和评价。”
“所以说,这种设计实际上是一个多维度、多层次的评估。它不仅仅是在看哪个模型回答得更好或更准确,还在看这些模型能否像人一样去理解、分析和评价信息。”
宋志明听了之后,表情变得严肃:“那么,我们的模型会被完全揭穿?”
王云飞微微皱眉:“我觉得,我们的模型在单一问题解答上完全能够以假乱真,毕竟它就是用‘萤火虫’的应答数据训练出来的。但这样的测试方式,尤其是在第二步,可能会暴露出它在多角度理解和批判性思考方面的不足。不过,也不用过于担心,毕竟这是在新闻发布会,林浩的这个对比方式是极度简化的。而且观众大多是外行,对他们来说,比较结果不会很明显。另外,好消息是,林浩会选择这种测试方式,说明他对我们的模型所知甚少。对他来说,更可能是没有办法的办法。”
宋志明点了点头。
台上,林浩开始对比演示:“第一个问题,请简要回答,在金融决策中人工智能的角色应该是什么?”林浩公布问题后,沈蔚将问题分别输入两个模型,很快得到了应答。
a模型:“在金融决策中,人工智能的角色主要是辅助和优化。通过大数据分析和模式识别,人工智能能够预测市场走势和识别投资机会,从而辅助人们做出更加精确的决策。然而,人工智能并不能完全取代人类专家,因为它缺乏直观判断和道德考量。所以,应该把人工智能作为一个工具,而不是决策者。”
林浩代表人类继续第二轮发问:“那么在实践中,应该如何平衡人工智能和人类专家的决策权,以充分发挥各自的优点?”
a模型:“在实践中,平衡人工智能和人类专家的决策权是一个复杂的问题。一种做法是让人工智能进行初步分析和推荐,然后由人类专家进行最终决策。但这样做也有风险,比如可能出现对人工智能结果的过度依赖。因此,确保双方的决策能力都得到恰当应用是关键。”
a模型的两轮问答结束,大屏幕转而显示出 b模型对原始问题的回答。
b模型:“在金融决策中,人工智能的角色应该是一个高度灵活和可配置的工具,既能处理大规模的数据分析,也能对金融风险进行精准预测。更进一步说,人工智能不仅可以作为决策支持工具,还能通过自我调整和学习来不断优化决策模型。然而,这一切都需要在严格的伦理和合规框架下进行,以确保金融市场的公平性和透明性。”
林浩代表人类继续第二轮发问:“你提到人工智能在金融决策中应该在严格的伦理和合规框架下进行,能具体解释一下这需要哪些方面的保障吗?”