原文:
www.kdnuggets.com/2023/08/whose-responsibility-get-generative-ai-right.html
图片来自 Canva
近年来数据的生成速度呈指数级增长,主要表明数字世界的普及程度增加。
1. Google 网络安全证书 - 快速进入网络安全职业生涯。
2. Google 数据分析专业证书 - 提升你的数据分析技能
3. Google IT 支持专业证书 - 支持你的组织的 IT
据估计, 90% 的全球数据 是在过去两年内生成的。
我们与互联网以各种形式互动的越多?—— 从发送短信、分享视频到创作音乐?,我们就越多地为生成式 AI (GenAI) 技术提供训练数据。
每年全球生成的数据来自于 explodingtopics.com
原则上,我们的数据作为输入进入这些先进的 AI 算法,这些算法进行学习并生成更新的数据。
毋庸置疑,这一现象乍看起来很吸引人,但随着现实的逐渐显现,它开始以各种形式带来风险。
这些技术发展的另一面很快揭开了问题的潘多拉盒子?以虚假信息、误用、信息危害、深度伪造、碳排放等多种形式出现。
此外,值得注意的是这些模型在使许多工作岗位变得多余方面的影响。
根据麦肯锡最近的报告 “Generative AI and the future of work in America” —— 涉及高比例重复任务、数据收集和基础数据处理的工作面临变得过时的更大风险。
报告引用了自动化,包括 GenAI,作为对基本认知和手动技能需求下降的原因之一。
此外,从 GenAI 出现之前到现在持续存在的一个关键问题是数据隐私。数据作为 GenAI 模型的核心,是从互联网中策划而来的,包括我们身份的一部分。
图片来自对话
有一种大型语言模型声称已在一些3000 亿字的数据上进行训练,这些数据来自互联网,包括书籍、文章、网站和帖子。令人担忧的是,我们之前对这些数据的收集、使用和处理毫不知情。
麻省理工科技评论认为“OpenAI 遵守数据保护规则几乎是不可能的”。
由于我们都是这些数据的部分贡献者,期望开源算法并使其对所有人透明,以便每个人都能理解。
虽然开放访问模型提供了关于代码、训练数据、模型权重、架构和评估结果的细节——基本上是你需要了解的所有内部信息。
图片来自 Canva
但我们中的大多数人能理解这些吗?可能不行!
这就产生了在适当论坛中分享这些重要细节的需求——一个由政策制定者、从业者和政府组成的专家委员会。
这个委员会将能够决定什么对人类是最好的?——这是今天任何单一群体、政府或组织都无法单独决定的事情。
必须将社会影响作为高优先级考虑,并从不同的视角——社会、经济、政治及其他方面评估 GenAI 的效果。
抛开数据组件不谈,这些庞大模型的开发者投入了大量资源来提供计算能力以构建这些模型,这使得他们有权保持模型的闭源。
投资的本质意味着他们希望通过商业用途获得回报。这就是混淆开始的地方。
拥有一个能够规范 AI 应用开发和发布的管理机构并不会抑制创新或阻碍业务增长。
其主要目的是建立护栏和政策,通过技术促进商业增长,同时推动更负责任的方式。
那么,谁来决定责任标准,又是如何形成这一管理机构的?
应该有一个独立的实体,由研究、学术界、企业、政策制定者和政府/国家的专家组成。需要澄清的是,独立意味着其资金不得由任何可能引发利益冲突的参与者资助。
其唯一议程是代表世界上 80 亿人进行思考、理性分析并采取行动,做出明智的判断,并对其决策承担高度的责任标准。
这确实是一个重要的声明,这意味着该小组必须高度集中,将委托给他们的任务视为至关重要的。我们这个世界无法承受决策者将如此关键的使命视为可有可无的副项目,这也意味着他们必须获得足够的资金支持。
该小组的任务是执行一个计划和策略,既能解决危害,又不妥协于实现技术带来的收益。
人工智能常常被比作核技术。其前沿发展使得很难预测与之相关的风险。
引用 Rumman 的话,来自Wired,谈到国际原子能机构(IAEA)如何形成——这是一个独立于政府和企业的机构,旨在为核技术的深远影响和看似无限的能力提供解决方案。
因此,我们在过去有全球合作的实例,世界曾经齐心协力将混乱变为有序。我确信我们最终会达到这一目标。但至关重要的是尽早汇聚力量并制定护栏,以跟上快速发展的部署步伐。
人类无法将自己置于企业的自愿措施下,期望技术公司负责任地发展和部署。
Vidhi Chugh 是一位人工智能战略家和数字化转型领导者,致力于在产品、科学和工程的交汇点构建可扩展的机器学习系统。她是一位获奖的创新领导者、作者和国际演讲者。她的使命是普及机器学习,打破术语,让每个人都能参与到这场转型中。