然后这才看着台下的专家和嘉宾以及媒体记者们,继续说道:“但测试也暴露了问题,当AI推荐的最优方案涉及牺牲一艘诱饵舰时,90%的指挥官会出于人性本能选择保留全部兵力,最终导致舰队整体覆灭。
这让我们意识到,单纯争论‘听谁的’是个伪命题。”
“那浩宇科技的解决方案是什么?”孙教授的质问从左侧传来,在声学效果极佳的会场激起轻微回音。
吴浩朝声音方向微微点头说道:“我们正在开发‘动态决策权重系统’。简单来说,系统会根据战场复杂度、信息可信度、伦理风险等级等二十七个维度,实时调整人机决策权重。比如在常规巡逻任务中,AI决策权占比可达70%;但当检测到平民区威胁时,人类复核权限将自动提升至100%。”
后排记者们笔尖飞动,前排海军军官们低声交流。吴浩稍作停顿,继续说道:“不过我更担心的是另一个问题——当我们过度依赖AI的‘理性计算’,是否会逐渐丧失在混沌战场中捕捉‘直觉灵感’的能力?”
他再次透明折叠平板,调出一段录像,画面里某位退役将领在兵棋推演中,仅凭敌方潜艇尾流异常就预判出伏击圈。
“这位老将军的决策依据,连最先进的AI都无法解析,但实战证明它拯救了整个舰队。”
会场陷入深沉的寂静,只有空调出风口的轻微嗡鸣。吴浩最后总结道:“人机融合的终极形态,不该是人类与机器的权力博弈,而应是让算法的精确性与人类的创造力产生化学反应。就像古代剑客与名剑,不是剑选择人,也不是人驯服剑,而是彼此成就新的剑道。”
吴浩轻轻转动手中的透明平板,全息投影在会场穹顶投下细密的数据流,折射出一片流动的银蓝色光晕。他抬眼望向台下如林的摄像机镜头,忽然想起三年前实验室第一次实现人机思维同步时,那个在显示屏上不断跳动的绿色光标——此刻会场里此起彼伏的快门声,倒像是某种跨越时空的呼应。
“关于人机决策权的边界,我们在研发初期就构建了三层防护体系。”他调出三维架构图,红色警示线在各个节点闪烁,“最底层是‘人类否决权’,任何涉及战略级目标的决策,系统都会强制中断AI运算,将决策权交回指挥官手中。中间层是‘后果模拟模块’,当AI与人类判断出现分歧时,系统会在0.5秒内生成三个维度的推演报告:战术成功率、伦理风险指数、政治外交影响。上个月的联合军演中,某型驱逐舰指挥官正是通过这个模块,发现AI推荐的突袭方案会触发邻国防空识别区,及时调整了作战路线。”
前排海军军官们纷纷翻开笔记本,后排记者的录音笔红光不停闪烁。吴浩轻点平板,画面切换成某位指挥官戴着神经接驳头盔的训练画面:“但我们更关注的,是如何让技术真正成为‘有温度的参谋’。传统AI输出的是冰冷的胜率数据,而我们的系统会学习指挥官的决策习惯,建立专属的‘指挥风格图谱’。就像这位张上校,系统通过分析他过往32次作战记录,发现其在复杂海况下更依赖水文数据,于是在推荐方案时会优先呈现相关参数。”
孙教授抬手打断:“这种个性化定制是否会导致决策偏见?”