ISACA中国2024年可信人工智能治理情况调研

本次可信人工智能治理情况调研,旨在向您了解贵司人工智能应用情况、可信人工智能治理情况,及中国企业可信人工智能治理现状和难点,并进一步为企业AI治理提出我们的观点。调查问卷将分为4个部分和2个附加问题,您大概需要花费5-10分钟完成这份问卷。


为了保证有效性,请您仔细阅读并回答调查问卷中的所有问题。提交问卷之后,参与者请保留提交截图,并可以自行在ISACA全球官网填报0.5CPE。感谢您为行业发展做出的贡献以及对ISACA的支持

第一部分 - 个人和公司基本情况
*
1. 您目前从事的行业:
技术服务/咨询
金融/银行
政府/军队
健康/医疗
制造/工程
保险
电信/通信
零售/批发/分销
公共事业
交通运输
采矿/建筑/石油/农业
广告/营销/媒体
航空航天
公共会计
制药
法务/法律/房地产
互联网
其他:
*
2. 以下哪项最能描述您的主要工作职责:
审计
风险控制
网络安全
隐私保护
法务合规
一般信息技术
IT咨询
其他:
*
3. 您在当前领域拥有多少年工作经验:
1-5年
6-10年
11-15年
16-20年
21-25年
26年及以上
*
4. 您目前的级别:
基层员工
部门经理/主管
总监
CXO/企业高管
*
5. 贵司在中国大约有多少员工?
少于50人
50-500人
500-5000人
超过5000人
*
6. 贵司所属的企业性质:
外商独资
中外合资
国有企业
内地民营企业
港澳台企业
其他:
第二部分 – AI的使用情况
*
7. 您认为当前贵司对于人工智能技术应用正处于哪个阶段? 【多选题】
人工智能技术规划
人工智能技术治理
训练数据准备
人工智能技术与基础设施配置
测试用例选择与优化
人工智能技术成熟度评估
人工智能技术开发、整合与部署
人工智能技术持续维护
暂未应用
第三部分 – AI使用过程中的风险与挑战
*
19. 请问您是否了解贵司的人工智能业务环境和数字环境?
不确定
*
20. 您认为贵司在人工智能技术应用的过程中,可能遇到的挑战有哪些? 【多选题】
技术障碍,如:算法复杂、人工智能与现有业务流程集成性低等
决策过程不透明或难以解释
算法合规性问题
算法模型安全
数据安全问题,如:数据源可靠性、数据处理、隐私保护等
人工智能系统安全
投资回报问题
伦理性问题,如:算法偏见、深度伪造等
其他,请具体说明:
*
21. 您认为贵司在人工智能技术应用的过程中,数据管理方面可能遇到的挑战是什么?【多选题】
数据收集困难
数据清洗和预处理复杂
数据安全和隐私保护
数据使用的合规性问题
生成内容安全
其他,请具体说明
*
22. 您认为贵司在人工智能技术应用的过程中,数据安全和隐私保护方面可能遇到的挑战是什么?【多选题】
因数据量增加而导致的数据泄露风险
在保护个人隐私的同时,需要确保数据的可用性
数据从收集到销毁的全生命周期保护
全球化发展过程中的数据出境规制
其他,请具体说明:
*
23. 您认为贵司在人工智能技术应用的过程中,伦理性问题方面可能遇到的挑战是什么?【多选题】
不同国家和地区对伦理的理解和标准不同
算法决策过程过于复杂,导致难以向非技术用户解释其工作原理
人工智能技术在设计和应用过程中可能加剧或产生偏见和歧视
在人工智能技术应用过程中出现错误或导致不良后果后责任归属
人工智能与人类工作者之间的关系
其他,请具体说明:
*
24. 您认为贵司在人工智能技术与长期业务战略融合的过程中,可能面临的挑战是什么?【多选题】
技术快速迭代、从而导致研发困难、算力紧张等
数据源的可靠性和数据使用的合规性
人工智能相关的监管政策不断调整
持续的成本投入是否能带来预期的收益
缺乏具备人工智能知识和技能的专业人才
其他,请具体说明:
*
25. 您认为贵司在人工智能技术应用的过程中,模型算法方面可能遇到的挑战是什么? 【多选题】
可解释性差
偏见或歧视
鲁棒性弱
输出不可靠
算法被窃取
算法对抗攻击
其他,请具体说明:
*
26. 您认为贵司在人工智能技术应用的过程中,系统安全方面可能遇到的挑战是什么? 【多选题】
系统缺陷漏洞
算力资源风险
供应链安全问题
其他,请具体说明:
第四部分 –AI治理现状与展望
*
27. 贵司中哪个团队/岗位负责可信人工智能治理工作?【多选题】
高级管理层或董事会
技术团队
合规团队(含隐私)
安全团队
风控团队
不确定
暂时没有负责人/团队
其他,请具体说明:
*
28. 贵司是否制定了可信人工智能相关的内部政策或指导原则?
已制定全面且正式的政策
有限的政策已经就位
正在规划政策,但尚未投入使用
目前没有相关政策,也不打算制定
不确定
*
29. 如已制定内部政策,在制定过程中主要参考哪些标准或框架?【多选题】
ISO/IEC 42001-2023人工智能管理体系
ISACA DTEF 数字信任生态系统框架
欧盟《人工智能法案》
中国人工智能相关法规与标准
美国NIST AI风险管理框架
其他,请具体说明:
*
30. 贵司关于可信人工智能方面的培训主要面向哪些员工?
面向公司内部全体员工
仅面向人工智能技术相关岗位的员工
没有提供过可信人工智能方面的培训
不确定
*
31. 贵司是否对人工智能技术应用进行风险评估?
计划中
*
33. 贵司对评估过程中发现的可信人工智能相关风险持哪种立场?
与可信人工智能相关的风险是当前的紧急优先事项
与可信人工智能相关的风险是长期优先事项
目前并未考虑解决与可信人工智能相关的风险
不确定
*
34. 您认为贵司的可信人工智能治理达到了什么水平?
基础级别(合规性、透明度、数据管理)
中级别(公平性、可解释性、责任机制)
高级别(伦理性、鲁棒性、持续监控)
卓越级别(全方位透明度、高度可解释性、动态适应性、全面责任机制)
不确定
*
35. 您认为在贵司实现可信人工智能治理最大的挑战是什么?【多选题】
缺乏专业的安全与合规人员
缺乏行业标准的模板/规范/指引
业务与IT的跨部门协作困难
资源和预算的限制
其他,请具体说明:
附加问题
*
36. 您是否愿意分享贵公司所在行业实现可信人工治理的优秀案例?
是, 我愿意分享并且可以通过下方联系方式联系到我
*
37. 您对人工智能技术的未来发展有哪些期待或建议?【多选题】
加强技术研发
完善法律法规
提升公众认知
加强国际合作
其他,请具体说明:
问卷星提供技术支持
举报