通过与 Jira 对比,让您更全面了解 PingCode

  • 首页
  • 需求与产品管理
  • 项目管理
  • 测试与缺陷管理
  • 知识管理
  • 效能度量
        • 更多产品

          客户为中心的产品管理工具

          专业的软件研发项目管理工具

          简单易用的团队知识库管理

          可量化的研发效能度量工具

          测试用例维护与计划执行

          以团队为中心的协作沟通

          研发工作流自动化工具

          账号认证与安全管理工具

          Why PingCode
          为什么选择 PingCode ?

          6000+企业信赖之选,为研发团队降本增效

        • 行业解决方案
          先进制造(即将上线)
        • 解决方案1
        • 解决方案2
  • Jira替代方案

25人以下免费

目录

AI火了!美国出手审查,中国的“监管办法”来了

电子工程专辑讯 近期,美国监管机构发起了首次针对人工智能聊天机器人带来的风险的审查,调查OpenAI是否违反消费者保护法。OpenAI推出的ChatGPT一时间风光无两,在AI行业引起不小震撼,有说法是ChatGPT的到来或将引领新时代搜索引擎的发展,颠覆如谷歌、百度等传统搜索引擎,也有可能取代客服、程序员、内容创作者、设计师等行业工作岗位,引起广泛热度。根据SimilarWeb统计数据,ChatGPT在4月的全球访问量达到了17.6亿次,已经超过必应、DuckDuckGo 等其他国际搜索引擎,并达到谷歌的 2%,百度的 60%。

ChatGPT带来惊艳的同时,存在的“缺陷”也很明显,比如问答过程中出现的知识事实性错误、常识偏差、隐私泄密、技术滥用、造假、社会公平等伦理问题。

在本月初,有16人匿名起诉OpenAI和微软被,起诉原因是ChatGPT在未经他们允许的情况下使用并泄漏了个人隐私数据,索赔金额达到30亿美元。此后又有两名全职作者提出,OpenAI未经允许使用了他们的小说训练ChatGPT,构成侵权。除以上起诉的人外,还有更多人的数据正在被OpenAI违规使用。

根据一份文件显示,美国联邦贸易委员会对OpenAI发出了一份长达20页的要求,包括了OpenAI是如何获取用于训练大语言模型的数据,ChatGPT生成有关真实个人的虚假陈述的能力,还要求OpenAI提供收到过的任何公众起诉,该诉讼清单包括了该公司从2023年3月披露的数据泄漏细节证词,该证词暴露了用户的聊天记录和支付数据。

OpenAI也曾坦率道,GPT等工具模型是可能“产生与某些来源相关的无意义或不真实的内容,还会导致对弱势群体或少数群体的广泛歧视问题。

三星也已经警告员工谨慎使用ChatGPT,因为三星员工直接将企业机密信息以提问的方式输入到ChatGPT,会导致其相关内容被引进数据库学习,致使信息泄密给更多人。三星考虑到如果有员工继续使用,将禁止公司内网使用ChatGPT。

“AI是把双刃剑”,马斯克强调了对AI进行监管的必要性。不过特斯拉在近期的xAI会议上透露,特斯拉在开发名为Dojo的超级计算机,目前主要用于人工智能机器学习和计算机视觉培训目的,但未来将向大模型方向发展。

人工智能的发展将赋能全社会,但同时也带来更多的风险和担忧。AI的一个重要应用是自动驾驶,自动驾驶能提升车辆的利用率,比如一辆完全拥有自动驾驶能力的汽车,每周使用的事件可以长达50-60个小时,特斯拉可能在今年晚些时候就具备L4或L5级的完全自动驾驶能力。

马斯克的表述是,自动驾驶后者特斯拉的人形机器人等人工智能与通用人工智能(AGI, Artificial General Intelligence)不同,通用人工智能是一种计算机智能,它能比所有人类都聪明,这个领域目前并非特斯拉专攻的领域,不过有其他公司正在研究。尤其是面对深度人工智能的上万台,甚至数十万、数百万台最先进的计算机,人们对需要有监管措施来确保这些计算机都可以协同并有序工作,以成就一个单一的综合“超级智能” (ASI, Artificial Super Intelligence) 。

超级智能存在更大的风险,现在全球各个国家/地区正出台政策对AI进行加强管理。

7月13日,国家网信办联合国家发展和改革委员会、教育部、科学技术部、工业和信息化部、公安部、国家广播电视总局发布了《生成式人工智能服务管理暂行办法》(以下简称‘办法’)。

《办法》明确指出生成式AI服务提供者应当依法开展预训练、优化训练等训练数据处理活动,需使用具有合法来源的数据和基础模型,涉及知识产权不得侵害他人依法享有的知识产权,涉及个人信息应用取得个人同意或者符合法律、行政法规规定的其他情形,采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。

《办法》中提出的生成式AI技术是具有文本、图片、音频、视频等内容生成能力的模型及相关技术。生成式人工智能服务提供者,是指利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人。生成式人工智能服务使用者,是指使用生成式人工智能服务生成内容的组织、个人。

点击阅读内容参考:生成式人工智能服务管理暂行办法

根据《中国人工智能大模型地图研究报告》显示,中国研发大模型数量的排名位居全球第二,仅次于美国,从国内大模型区域分布来看,北京、浙江、广东、上海等地的大模型数量最多,也是近三年人工智能服务器采购数量最多的地区。从学术影响力来看,北京、广东、上海的论文数量和引用量位居国内最高。

该报告的开源影响力地图显示,国内超过半数的大模型实现开源,高校和科研机构是开源主力,清华大学的ChatGLM-6B、复旦大学的MOSS、百度的文心系列大模型在开源影响力上名列前茅。

各家企业紧跟AI热潮,包括360集团与智谱AI达成战略合作,共同研发千亿级大模型“360GLM”, 双方的合作将借鉴“微软+OpenAI”组合的分工模式。

美团内部正在造AI模型,多年的运营经验让美团积累了大量专有数据,美团计划将在能力允许的范围内积极对 AI 技术进行投资,并将其应用到用户中。王兴认为,AI的应用绝不仅仅局限在手机或互联网行业,AI的应用方式多种多样,AIGC(人工智能生成内容)只是其中的一部分。

生成式AI的发展最大风险就是数据隐私泄密问题,OpenAI被指控其个人数据的大规模收集和存储,并没有合法的依据来证明是用在“训练”平台运算所需要的算法。意大利隐私保护监管机构已经禁用ChatGPT,原因是它涉嫌侵犯了欧盟的一般数据保护条例(GDPR),意大利已经暂时限制OpenAI处理意大利用户资料,还启动一项针对ChatGPT的调查。

该机构表示,虽然根据OpenAI发布的条款,ChatGPT针对的是13岁以上的用户,但并没有年龄核实系统来验证用户年龄,可能会导致儿童接受到“完全不适合他们发育和自我意识阶段的答复”。

而德国、法国、西班牙等欧洲国家也考虑对AI聊天机器人采取更严格的监管。

AI数据隐私的泄密对公司发展的风险管控引起高度重视,包括微软、亚马逊等企业龙头均呼吁员工不要与ChatGPT分享敏感数据。

除了国家政策的出台保护,另一种方式是通过技术上的改进,其实每个国家/地区都有自己的文化、价值观和法律,处在不同国家/地区的公司所训练的AI系统可能会无意中强化现有社会的偏见,从而将带有偏见的算法进行训练,在技术上需要通过改进AI的设计和训练方式来更好的保护用户的隐私。

文章来自:https://www.eet-china.com/

相关文章