今年 5 月底,一张五角大楼着火的图片突然在社交平台上出现。
【资料图】
几英里外,白宫助手和记者争先恐后地想弄清楚,这张疯传的大楼爆炸的图片是否真实。
最后他们发现,图片不是真的,而是由人工智能生成的。然而,政府官员、记者和科技公司无法在它产生真正影响之前采取行动。它不仅造成了混乱,还导致了股市下跌。
被篡改的和具有误导性的内容并不是第一次出现在互联网上。但是,人工智能让制作和获得这些内容更加容易,而且成品越来越复杂和真假难辨,虽然它可以用于艺术表达或改进可访问性,但也可能被用来炮制假的政治事件,或用于诽谤和骚扰。
无论是促进选举的完整性、保护证据、减少错误信息还是保存历史记录,大众都需要了解内容是否是被人工智能篡改或生成的。
如果五角大楼爆炸的虚假图像包含它是人工智能生成的痕迹,那么技术平台可能会更快地采取行动:它们本可以迅速减少其传播速度,或者标记该图片,以便人们能够更容易地将其识别为虚假信息。它导致的一切混乱,包括股市的动荡,本可以避免。
毫无疑问,如果我们想区分什么是真实的,什么是合成的,我们需要更多的透明度。上个月,美国政府权衡了如何做到这一点,它宣布七家最著名的人工智能公司已承诺“制定强有力的技术措施,以确保用户知道内容是人工智能生成的,例如打上水印”。
水印等披露方法是一个良好的开端。但是,它们很难付诸实践,而且也不是快速解决方案。目前还不清楚水印是否会帮助 X(原推特)用户识别虚假图像,或者最近将唐纳德·特朗普(Donald Trump)在广告活动中的声音识别为合成的。
其他方法,如来源披露和元数据,是否会产生更大的影响?最重要的是,仅仅披露内容是人工智能生成的,是否有助于受众区分真实和虚构,或减轻在现实世界中可能造成的伤害?
要开始回答这些问题,我们需要澄清水印和其他合成内容披露方法的含义。需要清楚它们是什么,我们可以合理地期望它们做什么,以及即使在引入它们之后仍然存在哪些问题。
尽管定义上的争论似乎很无聊,但“水印”一词的广泛使用,导致了当下整个人工智能领域的混乱和缺乏协调。定义这些不同方法的含义,是人工智能领域共同努力并就披露标准达成一致的关键先决条件。否则,人们总是会谈论不同的目的。
在领导非营利性组织人工智能伙伴关系(PAI,Partnership on AI)的跨领域工作时,我亲眼目睹了这个问题。其中的一项工作是为负责任的合成媒体制定指导方针,OpenAI、Adobe、Witness、Microsoft,BBC 等组织参与其中。
一方面,水印可以指用户可见的信号(例如,图像供应商媒体上印有的“Getty Images”文本)。但是,它也可用于表示嵌入在肉眼或耳朵无法察觉的内容中的技术信号。
这两种类型的水印(又称为“直接”和“间接”披露)对于确保透明度至关重要。因此,任何关于水印的挑战和机遇的对话都必须明确强调,它们评估的是哪种类型的水印。
更复杂的是,水印通常被用作一种“包罗万象”的术语,主要指提供内容披露的一般方法,尽管方法有很多种。白宫在其公开发表的承诺中,描述了另一种被称为“来源(provenance)”的披露方法,它依赖于加密签名,而不是隐形信号。
然而,这在许多媒体中经常被描述为水印。如果你认为这些术语令人困惑,请放心,你并不孤单。但明确性很重要:如果我们连如何表述不同的技术都不能达成一致,人工智能领域就无法实施一致和强大的透明度措施。
我提出了六个初始问题,可以帮助我们评估水印和其他披露方法对人工智能有多少用。这些问题应该有助于确保不同的机构、组织和人在讨论完全相同的事情,并且我们可以以彻底的、一致的方式评估每种方法。
水印本身可以被篡改吗?
具有讽刺意味的是,被吹捧为有助于评估内容来自何处,以及如何篡改内容的技术信号也是可以被操控的。虽然这很困难,但不可见和可见的水印都可以删除或更改,使它们无法告诉我们什么是合成的,什么不是合成的。值得注意的是,操纵它们的难易程度取决于内容类型。
水印的持久性对于不同的内容类型是否一致?
虽然隐形水印通常被宣传为应对生成式人工智能的广泛解决方案,但这种嵌入式信号在文本中比在视听类内容中更容易操作。这可能解释了为什么白宫的摘要文件建议水印将适用于所有类型的人工智能,但在全文中却明确表示,目前这些科技公司只承诺披露图像、视频和音频内容。
因此,人工智能政策制定必须具体说明,隐形水印等披露技术在不同内容类型中的持久性和更广泛的技术鲁棒性如何变化。一种披露解决方案可能对图像很有效,但对文本毫无用处。
谁能检测到这些看不见的信号?
即使人工智能领域同意广泛实施隐形水印,围绕谁有能力检测这些信号并最终由他们做出权威判断,也将不可避免地引出更深层次的问题。谁来判断和决定内容是否是人工智能生成的?更进一步地说,内容是否具有误导性?如果每个人都能检测出水印,这可能会使它们容易遭到滥用。
另一方面,对隐形水印检测手段的控制——特别是如果它是由大型人工智能公司决定的——可能会降低开放性并加高技术门槛。实施这些披露方法而不弄清楚如何治理它们,可能会使它们不可信和无效。
如果这些技术没有被广泛采用,居心不良的人可能会转而使用那些缺乏隐形水印的开源技术,来创建有害和误导性的内容。
水印能保护隐私吗?
正如人权和技术组织 Witness 的研究所表明的那样,随着时间的推移,任何与一段内容一起传播的追踪系统都可能给内容创建者带来隐私问题。人工智能领域必须确保水印和其他披露技术的设计方式不包括可能使创作者面临风险的识别信息。
例如,水印可能会用来揭露人权活动者的身份,这可能对表达和言论自由产生寒蝉效应。政策制定者必须就如何设计披露措施提供更明确的指导,以保护内容创建者的隐私,同时还要确保其中包括足够的信息,使其能够发挥应有的作用。
可见的披露是否有助于大众理解生成式人工智能的作用?
即使隐形水印在技术上更持久,并且保护隐私,但它们也可能无法帮助大众解释内容。像可见水印这样的直接披露方法具有提供更大透明度的直观吸引力,但这种披露不一定能达到预期的效果,而且它们通常被认为是家长式的、有偏见的和惩罚性的,即使它们没有说出一段内容的真实性。此外,受众可能会误解直接披露。
2021 年一位网友误解了 X(原推特)的“操纵媒体”标签,他认为这表明“媒体”机构在操纵他,而不是视频的内容经过编辑以误导他。虽然关于不同用户体验设计如何影响受众对内容披露的解释的研究正在兴起,但其中大部分都集中在大型科技公司内部,并专注于不同的场景,如选举。
研究直接披露和用户体验的有效性,而不仅仅是依靠标记人工智能生成内容的内在吸引力,对于提高透明度的有效政策制定至关重要。
给人工智能生成的内容加上可见水印,会降低对“真实”内容的信任吗?
也许最棘手的社会问题是,协调、直接的披露将如何影响人们对待信息的更广泛态度,并可能降低对“真实”内容的信任。如果人工智能组织和社交媒体平台只是简单地将内容是人工智能生成或修改的事实进行标记——将其视为一种可以理解的,尽管是有限的,以避免判断哪些声明具有误导性或有害性的方法——那么这如何影响我们对网上内容的感知方式?
通过披露获得媒体素养是一项崇高的努力。然而,许多与科技公司有关的政策团队担心,过早地推动标记所有生成式内容将让骗子有机可乘。因为在这种动态中,人们会对所有内容产生怀疑,质疑其可能由人工智能产生,以至于它破坏了对不是由人工智能生成的真实内容的信任。
这种发展方向也增加了不确定性,即人工智能在内容创作中的看似低风险的使用方式,例如,依赖于人工智能技术的 iPhone 人像模式,或者白宫承诺中提到的语音助手,是否值得披露人工智能参与其中。
人工智能领域需要共同努力,随着时间的推移衡量社会对信息的态度,并确定何时披露人工智能的参与是有意义的。最重要的是,他们必须评估可见披露的影响,这些披露仅描述内容创建的方法,说明某些内容是由人工智能生成或编辑的,但我们真正关心的是:表明内容所做的声明是真的还是假的。
水印和其他披露技术带来的挑战,不应被当作不采取行动或限制透明度的借口。相反,它们应该为公司、政策制定者和其他人提供更大的动力,共同制定定义,并决定如何评估实施中不可避免的权衡。只有这样,生成式人工智能政策才能充分帮助大众区分事实和虚假信息。
支持:Ren