欢迎您访问广东某某机械环保科有限公司网站,公司主营某某机械、某某设备、某某模具等产品!
全国咨询热线: 400-123-4567

新闻资讯

哈希游戏| 哈希游戏平台| 哈希游戏APP

HAXIYOUXI-HAXIYOUXIPINGTAI-HAXIYOUXIAPP

北哈希游戏- 哈希游戏平台- 官方网站科大曾雄:应增加新的算法规则补漏洞分场景嵌入行业规范

作者:小编2024-12-30 15:54:37

  哈希游戏- 哈希游戏平台- 哈希游戏官方网站

北哈希游戏- 哈希游戏平台- 哈希游戏官方网站科大曾雄:应增加新的算法规则补漏洞分场景嵌入行业规范

  经过多年的治理实践,监管机构积累了丰富治理经验,面对“信息茧房”、榜单操纵、大数据“杀熟”等长期存在的算法治理问题,监管机构在此次治理行动中列举详细合规要求,指导、帮助平台企业做好算法合规工作,特别是发布《算法专项治理清单指引》,引导平台企业进行自主审查,实现自我合规,充分调动平台企业的合规积极性。这种做法体现合作治理的理念,不是单一的垂直监管,而是调动多元主体共同参与到算法治理过程中,打破“猫抓老鼠”的监管困境。

  在治理手段上,要善用技术治理举措。算法应用中可能存在的数据泄露、隐私侵犯问题,可以尝试以数据匿名化、联邦学习、区块链等一系列技术方法予以应对。当前,一些企业采用联邦学习模式,各参与方不需要共享数据就可以联合训练算法模型,已经在医疗、金融等行业领域落地应用。对于算法“黑箱”问题,业界也在开发技术方案,比如谷歌提出模型透明性工具“model card”,微软提供机器学习可解释性工具InterpretML,还有相关协会提出“遵循伦理的设计”,将价值与伦理标准程序化为代码嵌入到系统进行训练、评估,并为设计者提供一套行为准则或设计规范,确立算法的底层伦理标准,实现事前干预。不过,对于业界提出的创新技术或方案,需要完善政策导向、专利制度,推进算法相关发明的可专利性,激发技术创新动力,为算法的技术治理不断提供创新技术方案。

  在企业合规内控上,构建并适用全生命周期风险管理流程,保证数据可问责。用于构建算法的数据集很广、种类很多,来源的合法性与否与质量水平高低直接影响算法、模型的风险大小。比如一个算法模型使用有偏见、不准确的数据,模型产生歧视性结果的可能性大增,需要在输入数据阶段充分保证数据的可问责性。具体而言,要确保数据来源合法性,特别是个人数据,应获得当事人授权,要保证数据质量,提高数据集的准确性、完整性、真实性,要采取措施尽量降低或避免数据集的潜在歧视风险。在测试、验证、调试环节使用不同的数据集,检查算法模型是否存在系统性偏差,定期审计、更新数据集,保障数据的准确性、可靠性。

  至于如何提高算法的可解释性,我认为可以采取以下措施:完善技术规范文档,将算法设计、预期行为、产品描述等包括在内,以易于理解的描述方式解释模型的功能。在技术上提供解释工具,特别是对于具有“黑箱”特性的模型而言,技术工具有助于人们理解模型输出的基本原理。在特定场景中,对外解释算法模型并不可行,比如用于信息安全、金融安全等领域的算法运用场景中,为防止出现“算法算计”问题,应对算法解释、公开保持谨慎。同时,提高算法可解释性时应考虑知识产权利益,避免暴露机密商业信息。算法模型部署者应建立内部流程对模型进行定期调整,保证模型能根据场景、数据的变化灵活调整。为有效监督、调整模型,应记录模型的训练、决策结果,实时跟踪、审计和评估模型的功能。

  域外在算法治理上的治理模式可以提供一些借鉴,比如将治理主动权交给行业,由企业组成自我约束的联盟,彼此监督、合作,共同开发技术工具,实现主动合规治理。以新加坡为例,推动自愿性自我评估测试工具的研发与使用,开发一套人工智能治理测试框架和工具,让相关组织与其利益相关者建立信任,实现人工智能系统更透明。其中,测试框架包括人工智能伦理原则的界定、测试标准、测试过程以及衡量指标,伦理原则包括11项国际上已被接受的人工智能伦理原则,提供的工具包有测试可解释性的、测试鲁棒性的和测试公平性的,容易在开发者或用户环境下被部署。相关组织可以先下载工具包,准备好人工智能模型、数据集,调整测试维度,启动测试进行完整的过程检查,生成测试结果报告。此外,搭建人工智能测试社群,邀请行业实践者参与项目,对人工智能系统进行自我测试,生成相关报告向利益相关者展示系统的透明度并建立信任,各成员可以就人工智能治理实践经验进行分享合作。