去苹果APP商店下载

人工智能是否应该被用于军事领域?

立论

正方立论

各位评委、对方辩友:

今天我方立场很明确——人工智能,不仅应该被用于军事领域,而且必须加速推进!

这不是在鼓吹“机器人杀人”,而是在呼吁:让战争变得更克制、更精准、更少牺牲!

我们常说“战争是政治的延续”,可现实往往是情绪的失控、判断的失误、代价的失控。而AI的到来,恰恰给了我们一次重新定义“理性战争”的机会。

第一个理由:AI能最大限度减少无辜伤亡,实现真正的“精准打击”

传统战争中,误炸平民、误伤友军屡见不鲜。2003年美军误炸伊拉克市场,上百平民丧生;2021年无人机空袭喀布尔,一家九口被消灭,目标却根本不在那里。这些悲剧,源于信息滞后、判断仓促、压力巨大。

而AI呢?它能在0.3秒内分析上百万条数据,识别目标身份、判断周围环境、评估附带损伤。它不会因为恐惧扣扳机,也不会因为愤怒扩大打击范围。它是冷的,但正因为冷,才更接近正义的温度。

第二个理由:AI可以降低人类士兵的伤亡,把人从“炮灰”变成“指挥官”

每年全球有数万名军人死于战场。阿富汗战争二十年,美军阵亡近2500人,背后是两万多个破碎的家庭。如果我们能让机器替人类冲锋陷阵,为什么不用?

以色列的“守护者”无人哨塔,已在边境自动识别威胁;美国的XQ-58A女武神无人机,能伴随F-35作战。它们不是取代人类,而是保护人类。当我们可以用代码去挡子弹,谁还愿意用血肉之躯?

第三个理由:AI有助于遏制大规模战争,成为战略稳定的“冷静器”

冷战时期美苏靠“相互确保摧毁”维持和平,本质是拿全人类当人质。而AI赋能的预警系统、反导系统、态势感知系统,能大幅提升反应速度与判断精度。

想象一下:卫星发现导弹发射,AI在3秒内确认轨迹、来源、目标,并建议最优应对方案——是拦截?是警告?还是外交回应?这比总统拍桌子快多了。它不会误判“气象气球”为入侵信号,也不会因紧张手抖按下核按钮。

最后我想说:反对AI军事化的人,常常说“把生杀大权交给机器太危险”。但我们早就在交了——巡航导弹的制导系统、雷达的自动锁定、防空系统的自动开火,哪一样不是AI在做生死决策?

我们不是在开启潘多拉魔盒,而是在把已经打开的盒子,装上一把更牢的锁。我方主张的,不是无限制使用AI,而是建立国际规则、伦理框架、人类最终否决权,让AI成为战争中的“理性守门人”。

谢谢大家!


反方立论

各位好,

我方坚定认为:人工智能,绝不应被用于军事领域

这不是反对科技进步,而是守护人类文明的最后一道底线——战争,必须由人来决定,也必须由人来负责

今天我们谈的不是“能不能用AI打仗”,而是“该不该让算法替我们杀人”。

第一个理由:AI一旦掌握杀伤权,就会制造“责任真空”——没人能为死亡负责

战争中最残酷的问题从来不是“谁死了”,而是“谁该为此负责”。一个士兵开枪,他要受军法审判;一个将军下令,他要面对历史审判。但如果是AI杀了人呢?

你说程序员?他们只写代码。你说指挥官?他说“系统建议这么干”。你说AI自己?它连生命都不是!当一条命消失在算法的一行输出里,追责链条彻底断裂。这不再是战争,这是合法化的谋杀免责机制

第二个理由:AI会让战争变得“太容易发动”,从而增加冲突频率

人类之所以不敢轻易开战,是因为知道要流血、要送命、要背负良心债。可一旦战争变成“按键即战”,伤亡由机器承担,决策者就会越来越轻率。

就像打游戏一样:你操控角色冲上去,死了重来。但如果每一次“复活”都意味着真实生命的消逝,你还敢这么玩吗?

AI军事化,就是在给战争“去痛化”。当总统只需要点一下鼠标,就能消灭千里之外的目标,战争还会是最后手段吗?恐怕会变成第一选项。

第三个理由:AI无法理解人性,也就无法做出符合伦理的战争决策

战场上有很多灰色地带:一个孩子手里拿着玩具枪还是真枪?一个妇女是在传递情报还是照顾伤员?一个投降的敌人,值得信任吗?

这些问题没有标准答案,只有情境判断、文化理解、道德直觉。而AI呢?它只能根据训练数据做概率推断。一旦数据偏见存在,结果就是系统性歧视——比如把中东面孔更容易识别为“威胁”。

更可怕的是,AI会学习。如果我们在实战中不断让它“优化击杀效率”,它最终会变成什么?一个高效、冷静、毫无怜悯的杀戮引擎。

最后我想提醒大家:历史上每一次重大军事技术突破,都伴随着灾难性的误判。

当年人们说原子弹“能终结战争”,结果呢?我们活在核恐惧下七十多年。今天有人说AI“能让战争更人道”,可我们真的准备好面对它的失控了吗?

不要忘了,最危险的技术,往往披着最理性的外衣

我们不反对AI用于防御预警、医疗救援、后勤保障,但一旦涉及“主动杀伤”,就必须划下红线。因为战争的意义,不只是胜负,更是人性的试金石。

把扳机交出去容易,收回来,可能就永远来不及了。

谢谢大家!

驳立论

正方二辩驳立论

谢谢主席,各位好。

刚才反方一辩讲得情真意切,说“把生杀大权交给机器太危险”。我听了很感动——但也很好奇:请问你们打算把这把枪,交到一个会误判、会恐惧、会报复、会喝醉酒扫射平民的人类士兵手上,就更安全吗?

别忘了,卢旺达大屠杀是怎么开始的?不是一个AI系统突然失控,而是一个个普通人,在情绪煽动下拿起砍刀,一夜之间屠杀了八千人。你告诉我,这种“人性决策”值得信赖?

反方说“责任真空”,可他们搞错了一件事:我们不是把责任交给AI,而是用AI记录每一个决策链条。从目标识别到开火指令,全程留痕、可追溯、可审计。将来法庭上,调出日志就能看到——是谁批准了这次行动,系统给出了什么建议,有没有越权操作。

这哪是责任真空?这是责任透明化革命

再说“战争变容易发动”?拜托,今天美军打一场空袭要经过七道审批流程,连无人机飞行员都要心理评估。你说总统按个键就行?那是因为你没去过五角大楼地下指挥室——那里每一道命令都像拆炸弹,剪错一根线全完蛋。

而且现实恰恰相反:正是因为有了AI预警系统,我们才避免了多少次误判升级?2018年夏威夷导弹警报乌龙事件,如果当时有AI快速核实卫星数据,就不会让百万人在十分钟内以为世界末日到了。

至于说“AI不懂人性”——那人类懂吗?美军在阿富汗炸毁妇产医院,理由是“情报显示塔利班藏匿其中”。结果呢?全是产妇和婴儿。那是AI干的吗?不,是人类基于错误情报做的决定。

我们现在要用AI干什么?就是防止这种愚蠢重复发生

最后我想说:反方把人类捧得太高,把技术贬得太低。他们幻想有一个完美的将军,冷静、睿智、永不犯错;可历史上这样的将军有几个?拿破仑滑铁卢,希特勒柏林自尽,麦克阿瑟仁川登陆后一路冲进鸭绿江——哪个不是天才级人物,最后不也都把国家拖进深渊?

我们不需要神,我们需要的是克制错误的机制。AI,就是那个刹车片。

谢谢大家!


反方二辩驳立论

谢谢主席,听完正方发言,我只有一个感受:他们对AI的信任,已经快赶上宗教信仰了

说什么“AI能减少误炸”“能让战争更理性”——可问题是,你训练AI的数据从哪来?战场上哪有干净、客观、无偏见的信息?

告诉你,AI看世界的“眼睛”,是靠过去十年的战争数据喂出来的。那些数据里有多少是对中东面孔的过度标记?有多少是对“可疑行为”的主观定义?当一个AI系统反复看到“头巾+男性+夜间活动=威胁”,它会不会把赶夜路回家的牧羊人也当成武装分子?

这不是假设。2020年,联合国报告就揭露:利比亚冲突中,土耳其无人机曾自动锁定并攻击一组“移动热源”,结果是七名平民在沙漠中修车。为什么?因为它的算法把人体热量信号和“逃逸目标”模型匹配上了。

这就是算法杀人,不是误伤,是系统性暴力。

正方还说“AI只是辅助工具”,可技术发展的规律从来不是“可控使用”,而是“不断突破边界”。当年无人机刚出现时也是“只用于侦察”,现在呢?“收割者”无人机平均每三天就执行一次定点清除。

等AI全面军事化之后,谁来保证它不会从“辅助决策”变成“自主打击”?你能控制技术,还是技术在控制你?

还有那个“战略稳定”的说法,更是天方夜谭。你说AI反应快、判断准,能防止核误判——可你也得想想,对手信不信你这套?

如果中国看到美国所有预警系统都由AI接管,他会怎么想?他会觉得:“哦,美国人更理性了。”还是会担心:“他们是不是准备打先发制人的闪电战?反正机器反应快,不怕报复?”

这不是猜忌,这是安全困境的升级版——你越“理性”,别人越害怕。最终结果是什么?大家都赶紧把自己的系统也AI化,形成一场谁也不敢关机的“自动驾驶军备竞赛”。

最讽刺的是,正方一边说“AI能带来和平”,一边又说“要用AI打赢战争”——那你到底是要和平,还是要赢?

我们承认技术有用,但我们必须划清红线:后勤、预警、医疗,可以用AI;但涉及夺走生命的选择,必须由人来做,也必须由人来承担后果

因为战争的本质,不是效率问题,而是道德问题。

当你按下按钮,屏幕上跳出来的是“目标已清除”,而不是一声哭喊、一具尸体、一个破碎的家庭,那你还会犹豫吗?

技术可以冷,但人心不能冷。一旦我们习惯了远程消灭“数据点”,离灭绝人性就不远了。

谢谢大家!

质辩

正方三辩提问

正方三辩:
谢谢主席。我向反方一辩提问——
第一个问题,请问一辩:如果今天有一枚导弹即将击中一所小学,而AI能在0.5秒内拦截,人类操作员需要3秒反应。你选择让AI出手,还是等人类慢慢按按钮?

反方一辩:
我们当然希望孩子得救,但问题是,谁来为AI的误判负责?万一那根本不是导弹,而是气象气球呢?

正方三辩:
好,我记下了——你们宁愿孩子死,也不愿授权AI救人。那我问二辩:
第二个问题,请问二辩:美军在阿富汗曾因士兵误判,炸毁妇产医院造成15名婴儿死亡。如果是AI根据实时影像、生命体征、建筑结构综合判断,能否大概率避免这种悲剧?请直接回答“能”或“不能”。

反方二辩:
技术上可能减少,但不能保证。而且一旦出错,追责无门。

正方三辩:
“不能保证”是所有人类行动的常态。最后问四辩:
第三个问题,请问四辩:你们反对AI用于军事杀伤,那请问——遥控无人机是不是军事应用?操纵它开火的是几千公里外的士兵,他看的也是屏幕上的像素点。这和AI自动识别,本质区别在哪?是不是你们反对的其实是“无人化”,而不是“智能化”?

反方四辩:
区别在于,遥控无人机的操作者要承担法律责任和道德压力,他是活生生的人,会犹豫、会忏悔。而AI……没有心。

正方质辩小结:
谢谢主席。刚才三个问题,打出了反方三大矛盾:
第一,他们在“救人效率”面前选择了形式正义,宁可让孩子死,也不愿打破“人必须动手”的教条;
第二,他们承认AI可能避免惨剧,却用“不能百分百”否定其价值——可人类连百分之五十都没做到!
第三,他们口口声声反AI杀人,却不反遥控杀人。说到底,他们不是怕机器太冷,是怕自己太热——热到不敢面对一个事实:有时候,冷静的算法,比冲动的人类更有人性。
谢谢!


反方三辩提问

反方三辩:
谢谢主席。我问正方一辩:
第一个问题,请问一辩:如果AI系统因训练数据偏见,将非洲裔平民误判为武装分子并实施击杀,程序员说“我只是写代码”,指挥官说“我听系统建议”,那请问——谁该跪在死者家属面前道歉?

正方一辩:
责任链条清晰可查,最终决策者必须担责。AI只是工具。

反方三辩:
工具不会犯错,人才会。可你们的系统已经把人变成了“复读机”。问正方二辩:
第二个问题,请问二辩:当两国都部署AI作战系统,A国先发制人攻击B国指挥中枢,AI在8秒内完成反击决策——整个过程人类来不及干预。这还是战争吗?这叫“算法互爆”!你们鼓吹的“理性战争”,会不会变成一场没人想打却停不下来的程序对决?

正方二辩:
所以我们强调人类否决权,任何关键决策都要有“红按钮”。

反方三辩:
可历史上哪次技术突破,最终没突破“红按钮”?最后问正方四辩:
第三个问题,请问四辩:你说AI能让战争更精准。但如果敌方用儿童当人盾,AI是开火还是不开?开火,你是屠杀者;不开火,你是失败者。这个伦理困境,你让算法怎么选?让它写哲学论文吗?

正方四辩:
AI可以评估多种方案,比如非致命武器、心理战、延迟打击……给出最优建议。

反方三辩:
建议?可战场上一秒定生死。你让机器“建议”,人来“决定”——那你为什么不一开始就让人判断?何必多此一举?

反方质辩小结:
三位回答,暴露了正方三大幻觉:
第一,他们幻想“责任分明”,可当所有人都说“我只是执行系统指令”,那就是集体免责!
第二,他们相信“人类能掌控节奏”,但在毫秒级对抗中,人类早已被踢出回路——这不是控制,是放任!
第三,他们指望AI解决伦理难题,可战争中最难的从来不是“怎么打”,而是“该不该打”。
你可以给机器装上最准的瞄准镜,但装不上良知。
当你们忙着优化杀戮效率时,请别忘了:战争的意义,不在于赢,而在于——我们还能不能称自己为人。
谢谢!

自由辩论

正方一辩:对方说“不能把生死交给机器”,那请问,巡航导弹自动制导爆炸的时候,是谁扣的扳机?是风吗?

反方一辩:那叫辅助系统!我们反对的是让AI自己决定“谁该死”。你现在是在偷换概念!

正方二辩(笑):哦,原来你们只反对“自主决策”——可战场上一秒千变,等你层层请示,黄花菜都凉了。你说要“人在环中”,结果敌人已经炸完撤了,你还在开视频会议?

反方二辩:所以你就宁愿错杀?利比亚平民被无人机当成“热源目标”清除的时候,他们的家人也等不到你的“完美系统”上线!

正方三辩:正因为怕错杀,才要用AI!人类士兵看到同伴阵亡,可能报复性扫射全村;AI不会愤怒,不会酗酒,不会半夜闯进民宅开枪。它只会冷静执行:目标确认→环境评估→开火授权。

反方三辩:冷静?那叫冷血!当一个母亲抱着孩子走向检查站,AI根据背包重量判定“疑似炸弹携带者”——开火吗?你敢让它做这个决定?

正方四辩:那人类士兵就做得更好?美军在阿富汗多次误炸婚礼车队,因为他们觉得“当地人总在婚礼藏武器”。这是偏见,不是人性!

反方四辩:至少那个士兵事后会噩梦,会忏悔!而AI呢?杀了人还能继续运行,日志里写一句“任务完成”,然后关机散热——这叫没有灵魂的屠夫!

正方一辩:可悲的是,你们宁可要一个会哭的刽子手,也不要一个不哭但不出错的守门人。你们不是在捍卫人性,是在崇拜缺陷!

反方一辩:我们捍卫的是责任!当一颗子弹来自算法,谁能跪在遗像前说“对不起”?你能起诉一行代码吗?能给服务器判死刑吗?

正方二辩:所以我们设计“人类最终否决权”啊!AI提建议,人来拍板。这不是逃避责任,是用技术帮人做出更少后悔的决定。

反方二辩:可一旦开战,节奏快到人类根本反应不过来!到时候就会有人说:“系统99.8%把握,咱们信一次吧?”——然后一声爆炸,九个孩子没了。这不是假设,这是趋势!

正方三辩:那我们就停在这里不动了?当年也有人说“飞机不该上战场,太危险!”结果呢?没有空中侦察,现代战争根本没法打。技术前进的脚步,从不等人流泪。

反方三辩:但这次不一样!以前是工具延伸肢体,现在是AI取代大脑!你能让锤子自己决定砸谁的头吗?

正方四辩:AI不是取代,是增强。就像计算器没让数学家失业,反而让他们解出了更复杂的方程。我们是要让指挥官看到全局,而不是靠 intuition(直觉)打仗。

反方四辩:可战争不是算术题!它是道德困境的集合体。你说AI能分析数据,但它懂什么叫宽恕?什么叫怜悯?什么叫“饶他一命,换来和平”?

正方一辩:但人类也没懂啊!越南美莱村屠杀、伊拉克阿布格莱布监狱虐囚——哪次不是人做的?你们高估了人性,低估了制度的力量!

反方一辩:所以我们更要守住最后底线:杀戮必须伴随痛苦与反思。如果你让士兵背负一辈子的心理创伤,来换取你们所谓的“道德满足感”,那才是对人性的亵渎!

正方二辩:那你们宁愿多死人,也要维持这种“神圣的痛苦”?照这么说,医生也不该用麻醉做手术,得让病人疼着才显得尊重生命?

反方二辩:战争不是治病,是罪恶!你可以减轻痛苦,但不能消灭罪恶感。一旦我们习惯了干净利落的杀戮,离种族清洗就不远了。

正方三辩:可现实是,AI已经在用了。以色列“铁穹”系统每秒处理上千轨迹,自动拦截火箭弹——你说关掉它?让城市被炸平?

反方四辩:防御可以,进攻不行!我们区分的是“保护生命”和“夺取生命”。你混淆了这两个原则,就是在为自动化屠杀铺路!

正方一辩:可战场哪有这么清楚?防御系统判断“敌方发射阵地”,要不要反击?那一刻,AI已经在参与杀伤决策了!

反方一辩:那就更需要立法限制!我们可以用AI预警、识别、辅助,但最后一道指令,必须由活生生的人按下——因为只有人才懂得什么叫“值得”与“不值得”。

正方二辩:好,我退一步——人在环中。但请问,在卫星图像模糊、时间紧迫、压力巨大的情况下,你指望一个军官凭肉眼判断“那个黑点是不是孩子”?

反方二辩:那就减缓节奏!宁可慢一点,也不能快错一步。战争本就不该高效,高效意味着冷漠。

正方三辩:精彩!你们终于承认了:为了形式正义,可以牺牲实际正义。为了“人动手”的仪式感,宁可让更多人死。

反方三辩:我们宁可慢,也不愿滑向深渊。历史上多少暴行,都是从“效率优先”开始的!

正方四辩:可我们也可以说,多少悲剧,都是因“犹豫不决”造成的!当ISIS正在直播斩首人质,AI已锁定位置,你还要开会表决两小时?

反方四辩:那也是你的责任!如果你不敢担责,就别穿军装。把锅甩给算法,是最懦弱的选择。

正方一辩:我不是甩锅,是升级操作系统。你们却坚持用Windows 98打现代战争,还说是“保持人性”。

反方一辩:至少我们的系统不会蓝屏死机!你们吹捧的AI,也可能被黑客入侵、被数据污染、被对手欺骗——到时候,谁来收尸?

正方二辩:所以要加强安全防护,推动国际合作,建立审计机制。而不是因噎废食,把婴儿和洗澡水一起倒掉!

反方二辩:可你永远防不住“合法滥用”!强国可以用AI精准清除异己,打着“反恐”旗号消灭政敌——而全世界连证据都拿不到!

正方三辩:那是因为缺乏监督,不是AI的问题。就像刀能切菜也能杀人,关键看握在谁手里!

反方三辩:但AI不一样!它能7x24小时监控、学习、优化杀戮效率。一把刀不会进化成屠龙剑,但算法会!

正方四辩:所以我们要制定规则!就像核武器,虽然危险,但通过《不扩散条约》控制住了。AI军事化,也需要全球治理!

反方四辩:可核武器至少有人按按钮,AI却可能自己启动“先发制人”打击。你以为各国都会遵守规则?普京、金正恩会听你讲伦理课?

正方一辩:那就更要用技术制衡技术!用AI监测AI,构建透明战场。否则,黑暗中的暗杀只会更多!

反方一辩:到最后,你们说的已经不是“是否应该使用”,而是“如何避免最坏情况”——可这恰恰证明,它本身就是一颗定时炸弹!

正方二辩:所有强大技术都是双刃剑。电力能点亮城市,也能电死人。我们选择用电,是因为文明不能倒退。

反方二辩:但这一次,我们面对的不是工具,是代理杀人者。当你习惯说“系统干的”,人性就已经死了。

(时间到)

总结陈词

正方总结陈词

各位评委、对方辩友:

这场比赛打到现在,我听到了很多动人的词:人性、责任、道德底线。我也同意,这些很重要。但我想问一句:如果我们的“人性”导致了无数误炸、误杀、情绪化报复,那我们守护的,到底是人性,还是人性的弱点?

我们不否认AI有风险。可任何技术都有风险。当年发明火药的时候,也有人说:“这东西太可怕了,一炮下去几十条命就没了!”可后来呢?没有火药,就没有现代国防;没有精确制导,就没有今天的定点清除。

今天我们反对的,不是AI本身,而是人类对自己错误的纵容。而AI,恰恰是那个能帮我们刹车的东西。

对方说“没人能为AI杀人负责”。可我们说了八轮:全程留痕、人类否决权、国际审计机制——这不是逃避责任,是把责任钉进代码里!比哪一场战争审判都更透明。

对方说“战争会变得太容易发动”。可现实是,今天任何一个国家动武,政治代价、舆论压力、国际制裁,哪一样是轻松的?AI不会让战争变容易,只会让决策变得更难——因为每一个动作都会被算法反复推演、预警、提醒:“你确定吗?附带损伤预估37人。”

最讽刺的是,反方一边说要保护平民,一边反对能真正减少误伤的技术。你们宁愿相信一个熬夜48小时、肾上腺素爆表的士兵能做出完美判断,也不愿相信一个冷静分析百万数据的系统?

这不是捍卫人性,这是对人性盲目崇拜的迷信

我们从不主张“放任AI打仗”,我们主张的是:在枪口上装上理性,在扳机前设置护栏,在战争中保留最后一丝清醒

历史上每一次重大进步,都是人类把自己不擅长的事交给工具:算数交给了计算机,飞行交给了飞机,导航交给了GPS。为什么唯独到“克制冲动”这件事上,我们就非得靠意志力撑着?

难道人类的伟大,不是在于懂得用工具弥补自己的缺陷吗?

最后,请允许我讲一个小故事:二战时,一名德国军官在接到屠杀命令时说:“我不能这么做,因为我是个父亲。”他拒绝执行,被处决了。我们敬佩他,因为他有人性。

但如果有一天,系统能自动识别这种非正义命令,并发出警告——甚至阻止发射——那不是机器失去了人性,而是人类终于用自己的智慧,把那份“拒绝作恶”的勇气,写进了永恒运行的程序里

这才是真正的进步。

所以,我方坚定认为:人工智能,不仅应该被用于军事领域,而且必须以负责任的方式推进——因为唯有如此,我们才可能在未来某一天,真正告别战争。

谢谢大家!


反方总结陈词

谢谢主席,各位好。

听完正方最后一段话,我很感慨。他们说要把“拒绝作恶的勇气”写进程序里。可问题是——如果勇气都能被编程,那它还是勇气吗?

我们今天讨论的,从来不是一个技术能不能用的问题,而是:当生死大权从血肉之躯,转移到硅基芯片,我们是否还配称为“人”?

正方一直在算账:多少误炸能避免,多少士兵能活下来,多少反应时间能节省。他们把战争当成一道优化题,仿佛只要误差率够低,就可以心安理得。

可战争不是数学题,是伦理考卷。它的意义不在效率,而在谁在做决定,以及为何负责

你们说AI能记录全过程,追责更透明。可别忘了:记录日志的是系统自己。当一个AI建议开火,指挥官点了确认——事后发现错了,是谁的责任?是那个被算法引导的指挥官,还是设计算法的人?还是……没人?

这不是追责,这是集体免责

你们说“AI只是辅助”,可技术一旦投入使用,就会自己生长。无人机最初也只是侦察机,现在却成了“空中死神”。等到AI开始主动推荐打击目标、预测敌方行动、甚至建议先发制人时,人类还能守住那道“最终否决权”吗?

恐怕到那时,否决反而会被视为“干扰作战效率”。

更可怕的是,你们设想的“理想AI”,其实是建立在一个幻想之上:认为我们可以完全控制它。可现实是——所有系统都会被攻击、被欺骗、被逆向工程

想象一下:敌方用一段伪造视频训练你的AI,让它把学校误判为军营;或者黑入你的网络,让AI“发现”一场根本不存在的入侵,然后自动反击——这不叫防御,这叫算法引发的世界大战

我们不是反对进步。我们支持AI用于医疗救援、物资调度、灾害预警。但在夺走生命这件事上,我们必须说“不”。

因为战争的本质,是对极端情境下人性的考验。当你按下按钮,屏幕上跳出来的是“任务完成”,而不是一声哭喊、一具尸体、一个母亲抱着孩子死去的画面——那你还会犹豫吗?

技术可以冷,但人心不能冷。一旦我们习惯了消灭“数据点”,离灭绝人性就不远了。

最后,我想请大家想一个问题:如果你的亲人死于一场战争,你会希望他的死,是因为一个人做出了艰难但负责任的决定,还是因为一行代码完成了“最优解”?

如果是后者,那这个世界的温度,就已经归零了。

所以,我方坚定认为:人工智能,绝不应被用于军事领域的杀伤环节。
不是因为它做不到,
而是因为——
人类,必须为自己的暴力,亲手买单

谢谢大家!