最新消息

CAQ研究:在会计中部署人工智能会带来12个审计风险

写于2024年4月12日

在财务报告中部署生成式人工智能的公司面临12种审计风险,从治理和合规方面的缺陷,到未能防止欺诈和网络攻击, 根据审计质量中心. 

使用生成式人工智能的公司的审计人员经常面临“黑箱”挑战,他们既不能解释也不能解释技术是如何生成信息的, CAQ说. 当“财务报告流程和ICFR(对财务报告的内部控制)变得更加复杂,技术产出无法独立复制时,问题就会加剧。.” 

三分之一的审计师认为,所在行业的公司正在部署或计划在财务报告中部署人工智能, CAQ在2023年的一项调查中发现. 随着企业探索人工智能如何“简化或增强会计和财务报告”,这一比例可能会上升,中心说. 

会计师越来越多地使用生成式和其他形式的人工智能来准备技术性会计备忘录, 以顺利完成日常任务,例如编写Excel公式或编制财务报表,以及分析大量数据以应对异常交易或未经授权的系统访问, CAQ说. 

财务主管也使用人工智能来总结合同条款, 对交易的会计处理提出初步建议, 并为预算或理解差异和成本分析数据, 他在回复记者提问的电子邮件中说. 

CAQ表示,首席财务官们应该考虑关注生成式人工智能带来的12种危害,包括: 

  • 治理——未能识别和管理整个公司的人工智能应用程序 

  • 监管——以违反法规、法律或合同的方式使用生成式人工智能 

  • 技能——员工缺乏有效、安全地监督或使用生成式人工智能的知识 

  • 欺诈——管理层、员工或第三方使用生成式人工智能犯下或隐瞒罪行 

  • 数据隐私——机密数据被错误地输入到生成AI应用程序中 

  • 安全生成人工智能容易受到网络攻击, 故意插入有缺陷的数据, 或者故意从申请中得出虚假的结论 

  • 有缺陷的选择或设计——生成AI应用程序的选择没有达到预期的目标 

  • 易出错的基础模型——公司采用不可靠的大型语言模型,产生不准确或有偏见的信息 

  • 有缺陷的训练——生成式人工智能模型的错误训练会产生重复的输出错误 

  • 性能差——由于测试不足, 生成式AI应用程序“产生幻觉”,或提供不完整的, 不准确的, 不可靠或不相关的信息 

  • 有缺陷的提示——员工无法向生成式人工智能提出准确的问题, 产生意想不到的或不相关的信息 

  • 在部署生成式人工智能之后,监控不足, 公司未能密切跟踪产出,以确保技术按预期运行.