Hi!请登陆

如何使用生成式 AI 工具?答案都在这里了

2023-3-3 354 3/3

如何使用生成式 AI 工具?答案都在这里了

 

在过去的几个月里,很多人一直在尝试像 ChatGPT 这样的生成式人工智能工具,看看它们是否能帮助我们更好地完成工作。AI 软件无法调用消息来源并从中获取信息,但它可以生成这些调用的一半体面的抄本,而新的生成 AI 工具可以将这些抄本的数百页浓缩成摘要。

不过,写故事是另一回事。一些出版物已经尝试过——有时会带来 灾难性的后果。事实证明,当前的人工智能工具非常擅长制作出令人信服的(如果是公式化的)充满谎言的副本。

这是《连线》杂志,所以我们希望站在新技术的前沿,同时也要保持道德和适当的谨慎。那么,这里有一些关于我们如何使用当前的生成式 AI 工具集的基本规则。我们认识到 AI 会发展,因此可能会随着时间的推移改变我们的观点,我们会承认这篇文章中的任何变化。我们欢迎评论中的反馈。

文本生成器(例如 LaMDA、ChatGPT)

我们不会发布带有 AI 生成的文本的故事,除非它是 AI 生成的事实是故事的重点。(在这种情况下,我们将披露使用情况并标记任何错误。)这不仅适用于整个故事,也适用于片段——例如,订购几句关于 Crispr 工作原理或什么是量子计算的样板文件。它还适用于其他平台上的编辑文本,例如电子邮件通讯。(如果我们将其用于非编辑目的,例如已经自动化的营销电子邮件,我们将予以披露。)

这是显而易见的原因:当前的人工智能工具容易出现错误和偏见,并且经常会产生枯燥、非原创的文章。此外,我们认为以写作为生的人需要不断思考用自己的语言表达复杂思想的最佳方式。最后,人工智能工具可能会无意中抄袭别人的话。如果作者在不公开的情况下使用它来创建要发布的文本,我们会将其视为等同于剽窃。

我们也不发布由 AI 编辑的文本。 虽然使用 AI 将现有的 1,200 字故事缩减为 900 字似乎比从头开始写故事问题更少,但我们认为它仍然存在缺陷。除了 AI 工具会引入事实错误或意义改变的风险之外,编辑也是判断作品最相关、最原创或最有趣的内容的问题。这种判断取决于对主题和读者群的理解,而人工智能无法做到。

我们可能会尝试使用 AI 为简短的社交媒体帖子推荐标题或文本。 我们目前手动生成大量建议,并且编辑必须批准最终选择以确保准确性。使用 AI 工具来加速创意的产生不会实质性地改变这个过程。

我们可以尝试使用 AI 来产生故事创意。 人工智能可能会通过诸如“建议有关基因检测对隐私的影响的故事”或“提供预测性警务存在争议的城市列表”之类的提示来帮助集思广益。这可能会节省一些时间,我们将继续探索它的用处。但我们所做的一些有限测试表明,它也会产生错误的线索或无聊的想法。无论如何,只有人类才能做的真正工作是评估哪些是值得追求的。在可能的情况下,对于我们使用的任何人工智能工具,我们都会承认它用于生成信息的来源。

我们可能会尝试使用 AI 作为研究或分析工具。谷歌和微软正在添加到其搜索引擎中的 当前一代人工智能聊天机器人 通过从大量文本中提取信息并对其进行总结来回答问题。记者可能会像使用常规搜索引擎一样使用这些工具,或者总结或搜索文件或他们自己的采访笔记。但他们仍然需要返回原始笔记、文件或录音来检查引述和参考。从这个意义上说,使用人工智能机器人就像使用谷歌搜索或维基百科:它可能会给你初步的指导,但你必须按照链接回到原始来源。

然而,在实践中,人工智能会犯错误并遗漏人类认为相关的事情——可能太多以至于它不会节省任何时间。即使这些工具确实有用,我们也不希望我们的记者依赖它们,就像我们不希望他们依赖维基百科上的有限信息一样。我们将一如既往地坚持相同的研究和原创报告标准。我们还知道,有许多专业出版的研究数据库附带合法且高度准确的文本和数据挖掘工具,因此我们将不断评估它们是否满足我们的需求。

图像生成器(例如 Dall-E、Midjourney、Stable Diffusion)

我们不发布 AI 生成的图像或视频。 人工智能生成的艺术作品已经遍布互联网,但艺术家和图片库 正在起诉图像生成者将他们的作品用作训练数据侵犯版权。在某些国家/地区,有禁止此类使用的法律。至少在法律问题得到解决之前,我们不会发布此类艺术作品,即使它是由我们委托并付费的艺术家创作的。与文本一样,当使用 AI 的事实是故事的重点时,我们会破例,并会公开它,并获得许可。(例如,我们要求一些为 WIRED 设计封面的艺术家 在他们自己的作品上创建支持 AI 的变体,以说明一篇 关于生成 AI 潜力的文章。)

我们特别不使用 AI 生成的图像来代替图片库。 将图像出售给库存档案是多少职业摄影师的生计之道。至少在生成人工智能公司开发出一种方法来补偿他们的工具所依赖的创作者之前,我们不会以这种方式使用他们的图像。

相关推荐