首页 » 严格审查输出

严格审查输出

始终检查生成的内容是否意外包含敏感数据。人工智能模型可以根据提供的数据进行推断,并根据其现有数据集无意地生成敏感的第三方内容。

您还应该彻底检查输出,以确保它不会无意中引用专有或敏感的客户/业务信息。

避免侵犯知识产权。

当使用 Midjourney 创建图像或使用 ChatGPT 创建副本时,请避免使用指示模型复制个人作品的“X 风格”提示。这可能会违反版权法,而且坦率地说,速度非常慢,即使你引用的是其作品不再受版权保护的历史艺术家。最近,人们对使用创意人工智 电报数据  能的强烈反对的一个例子就是关于艺术家抄袭其风格的争论。但是,您绝对可以利用客户品牌语调指示来指导复制输出。

尊重所有知识产权,并且不抄袭特定作者或艺术家的风格。这包括文本、图像、设计或任何其他可能受版权保护的材料。

不要无缘无故地依赖输出。

Full Fact 首席执行官威尔·莫伊 (Will Moy) 最近在英国网络危害与虚假信息调查委员会就虚假信息和可信声音所做的调查中表示:“能够用自动生 关于如何解决下载速度慢的最终想法 成的文本、图片、视频和数据集充斥公众辩论,为几乎所有主张提供看似可信的证据,这将改变游戏规则,因为现在看起来没有人会进行可信的公开辩论,而且似乎也没有人认为有人会进行可信的公开辩论。现在正在发生的是一种非常成熟的虚假信息策略。”

作为追求透明公共话语的民主社会的成员,我们必须认识到我们在解决人工智能轻易被用来传播可能对我们的生活方式造成重大损害的错误信息方面所扮演的角色。促进知情社会的责任不仅在于事实核查人员和政府官员,也在于我们作为内容创造者、策展人和信息消费者。

ChatGPT 等大型语言模型存在两个主要问题。第一个是幻觉——指的是产生的输出不是基于输入数据,或者与输入中包含的事实信息有显著偏差。其次,模 领导孟加拉国搜索引擎优化 型的好坏取决于训练数据——如果训练数据包含不正确的信息,模型可以学习并复制它。

遗憾的是,没有技术解决方案来验证输出是否正确。自动事实核查已经存在了一段时间,虽然它在利用现有的权威数据验证一系列基本事实主张方面取得了重大进展,但它仍然存在局限性。。截至目前,还没有任何工具能够完全自动化地测试另一个工具的输出并达到 100% 的准确率。

挑战在于背景——全面事实核查所需的复杂性和背景敏感性仍然超出了全自动系统的范围。索赔的措辞、时间或背景的细微变化可能会使其变得更加合理或更加不合理。当相关性被误认为因果关系时,即使是完全准确的统计数据也可能会提供误导性的信息(例如,每年在游泳池中溺水的人数与尼古拉斯·凯奇主演的电影数量相关)。

那么,我们如何利用人类的推理和决策能力来确保事实和数据得到验证并在正确的背景下使用呢?

滚动至顶部