万如意(中软国际副总裁、AIGC研究院院长):从技术层面看,完全可以让AI根据预设量化评审标准,对技术方案、服务承诺进行初步打分或排序。AI能精准捕捉评分标准中的量化指标(如服务响应时间≤2小时、质保期≥3年),快速比对投标文件内容并给出初步分数,甚至能标注“技术方案与需求匹配度”“服务承诺可落地性”等细节,为专家提供精准数据参考,这一点已在多地试点中得到验证。
从法律框架看,目前并未禁止此类应用,但需明确责任边界。根据政府采购相关规定,评审委员会是法定评审决策主体,需对最终结果承担责任,而AI无法替代人成为责任主体。因此,“AI初步打分+专家复核决策”的模式是合法合规的,相当于“AI一审梳理数据、专家二审把控核心”。
可能遇到的问题与挑战主要有两类:一是人机协作习惯适配问题。若AI出具上千页投标文件的初步打分意见后,专家仍需逐页复核,并未减少实际工作量,AI价值会大幅打折;反之,若专家过度依赖AI简化复核,可能忽视AI对隐性需求(如特殊行业服务时效要求)的判断不足,引发评审风险。二是制度适配问题。现有法律框架将技术工具定位为“流程保障者”,未明确AI“智力辅助”的定位,缺乏对AI初步打分的效力、专家复核责任边界的界定,导致实践中难以操作。
解决思路需分两步:第一步,明确人机分工范式,即通过试点形成“AI聚焦量化指标初步打分、专家聚焦非量化核心判断”的协作模式。比如,AI负责“服务响应时间是否达标”等量化项打分,专家负责“技术方案创新性”“团队实操能力”等非量化项判断,既提效又控风险。第二步,完善制度衔接,即短期内可在地方或行业试点规则中,明确AI的“辅助定位”与“责任豁免边界”(如AI仅提供参考,专家对最终打分负责),长期可推动将AI辅助评审纳入政府采购制度体系,明确其操作标准与效力范围。
黎 娴(政采云股份有限公司品牌部总监):现阶段,已经可以实现AI辅助专家进行投标文件评审,主要功能包括针对资质证照及承诺函等文件的智能识别和快速定位、函件内容的智能提取、结合评审条件预打分等。
虽然AI技术在评标场景得到了长足发展,但目前完全依托AI完成评审尚无法律依据,“机器人专家”不能代替人类评审专家。一方面,根据《中华人民共和国民法典》,只有自然人、法人和非法人组织才享有民事主体资格,生成式人工智能尚未被赋予独立法律人格,无法承担相应的法律责任。当前,学界普遍认为AI技术本质上属于工具范畴,其行为后果归属于开发者、运营者或者使用者。另一方面,政府采购及招标投标相关法律法规均明确评审专家以独立身份参加评审,评审专家应独立、客观、公正地进行评审。在实践中,应警惕部分专家过度依赖AI判定结果,直接引用AI给出的建议或评分,放弃专业判断。为此,在产品设计时,建议用清晰、明显的方式提示AI仅为辅助,要求评审专家发挥专业作用和承担主体责任。同时,建立人工复核的校验机制,确保评审结果准确性。
此外,个人认为,因为基于不同大模型开发的智能产品有着不同的算法逻辑和数据库,每个大模型相当于“一个人”,多个大模型才相当于多个人,所以如果要实现完全由“机器人专家”评标,需要5套以上不同的大模型来参与评标。现阶段,很多所谓的智能评标产品实际上是一个大模型下的1个“机器人专家”。
万 喆(北京师范大学教授):在AI评分技术层面,目前已能基于预设量化标准实现初步打分。某些模型通过对政策法规与行业标准的学习生成评分报告,据称与专家结论高度吻合,具有显著的进步意义,且实用性能持续增强。
然而,该技术仍面临多项瓶颈:一是非结构化数据处理难度大,技术方案中除文字外还包括图表等多模态内容,当前多模态解析能力尚不完善;二是评审标准具有动态性,需建立可配置的规则引擎及插件式模型,以适配项目类型变化;三是学习样本规模有限,尤其在新兴领域数据匮乏,制约模型学习效果,需探索新型学习方式以改善该问题。
在法律层面,AI作为辅助工具已被允许使用,但独立决策仍存在障碍。核心问题在于责任主体模糊,若出现误判,难以确定责任承担方。现行《政府采购质疑与投诉办法》未涉及AI责任条款。此外,还存在数据合规风险,如调用供应商敏感信息是否符合《中华人民共和国个人信息保护法》、是否存在商业秘密泄露隐患等。
未来技术路径或可采取规则与案例双驱动模型,既依据显性评审标准,又学习历史案例中的隐性逻辑。同时,引入可解释AI技术,可视化决策依据,增强透明度,以提升公平性感知。法律适配方面,需明确AI在评分中的法律地位,限定其角色,并建立算法备案制度,要求供应商提交训练数据与评估报告,由监管部门审查,以明确法律责任与公平性保障机制。
李达锋(浩鲸云计算科技股份有限公司工作人员):从技术实践来看,AI完全具备依据预设量化评审标准,对投标文件的技术方案、服务承诺等内容进行初步打分或排序的能力,可为专家评审提供有效数据参考。具体而言,通过采集历史招投标文件,系统可提取其中的资格要求、商务与技术评审细则及响应内容,进而梳理构建系统化的评标智审规则知识库;借助生成式AI大模型,可对供应商投标文件进行智能解析、精准定位并提取对应评审要点,再结合预设评审标准进行比对分析,最终实现评标模拟打分。在此过程中,评标专家无须逐一翻阅海量文件,可基于AI输出结果快速定位投标文件原文,对AI评分结果进行确认或修订,既能减少专家重复劳动,又能提升评标工作的整体质量与效率。
从技术与法律框架层面分析,当前技术已具备落地可行性,且现有法律框架未对此类“AI辅助评审”模式予以禁止。政府采购法律法规强调评审的公正性、客观性与规范性,而AI辅助打分可通过量化标准减少主观偏差,与法规精神相符。但实践中,仍可能面临两类挑战:一是技术层面,若历史数据存在偏差或评审标准量化不够精细,AI可能出现“理解偏差”,导致初步打分结果不准确;二是法律层面,当前缺乏针对AI辅助评审的专项规制,AI评分结果的法律地位、责任界定尚不明确。
针对上述问题,可从三方面解决:其一,优化数据质量与规则库建设,通过筛选高质量历史数据、细化评审标准量化维度,减少AI理解偏差;其二,完善法律配套规范,明确AI辅助评审的操作流程、结果效力及责任划分,如规定AI评分仅作为参考依据,最终评审结果需经专家确认;其三,建立“AI预评+专家复核”双轨机制,强化专家对AI结果的审核责任,确保评审结果既高效又合规。
王永锋(天津市公共资源交易中心政采业务负责人):现行法律框架下,AI仍是辅助性,不能替代评审专家进行评审工作。对于投标文件的技术方案、服务承诺等专业性强,需要评审专家结合自身能力进行主观判断的领域,AI技术的应用还有一定的法律风险。同时,AI技术能否进行很好的业务量回归分析、政策法规关联性分析、特征知识量增量、典型案例的积累等,直接影响到AI技术运用的成效。
于 安(清华大学公共管理学院教授):当前人工智能未能广泛应用,核心原因是存在技术障碍,主要体现在两方面:一是“幻觉”问题,即输出内容脱离预期,且目前无任何使用者能保证所用人工智能不存在这一问题。加上数据处理环节存在不可预测的“黑箱”(即不可预测的内容),“幻觉”问题暂时无法避免。二是无法解决裁量问题,而交易过程中必然存在裁量需求,这使得人工智能不能直接作为决策依据。
人工智能不成熟之处有望通过技术迭代改进。例如,“幻觉”和裁量问题的部分原因是数据质量不高,未来可通过提升数据质量来改善。同时,鉴于技术迭代速度较快,未来或许会有新办法解决现有问题。