+18888889999
诚信为本:市场永远在变,诚信永远不变。

《传媒观察》|是什么

你的位置: 首页 > 百威资讯

《传媒观察》|是什么

2024-04-07 23:27:59

  编者按

  ChatGPT问世掀起生成式AI研究热潮。北京师范大学新闻传播学院教授、博士生导师、传播创新与未来媒体实验平台主任喻国明和博士生刘彧晗在《传媒观察》2023年第9期刊文,从复杂性范式出发,依循“是什么-会怎样-应如何”的逻辑分析生成式AI的理解路径。生成式AI是实现传播理性与非理性要素交织的新媒介技术,将内容网络升维成更具开放性的复杂巨系统。从社会影响来看,生成式AI作为智能主体和智能工具,可通过“替代”与“增强”人类脑力的方式,促进人类非理性逻辑与机器理性逻辑交织并深入社会表达之中,使普罗大众得以跨越传播“能力沟”并实现平均水平的智力增强,进一步打破精英宰制的社会并迈入“常人政治”的未来新社会。在治理方面,应摒弃机械控制论思路,以其道德伦理和算法伦理为原则,形成抓大放小的复杂性治理思路。面对未来发展,为避免陷入科林格里奇困境,应沿智能试错方案的思路,允许通过技术小规模试错来厘清发展路径,相关研究也应更关注生成式AI具体应用层的议题。

  一、ChatGPT问世与众说纷纭的生成式AI

  2022年11月30日,美国人工智能公司OpenAI推出新型人工智能产品——ChatGPT,被看作近年来开发的最具变革性与颠覆性的人工智能工具之一。其极大的技术优势也迅速掀起生成式AI研究热潮,有关“人工智能技术与人之存在性”的基本哲学问题再次进入思辨中心。

  以ChatGPT和生成式AI为关键词,在中国知网与Web of Science上分别检索与信息传播方向相关的CSSCI研究和SSCI研究后发现,至今已有88篇国内文献和46篇国外文献探讨过生成式AI在新闻传播领域的发展,产生多种认识论。“乐观论”认为生成式AI必然会带来人类社会生活的极大丰富;“悲观论”认为生成式AI的发展很可能会给人类的未来带来极大的危害,甚至导致人类灭亡;“泡沫论”认为目前生成式AI的发展并没有吹嘘得那么成熟,过早讨论其给人类历史带来的“颠覆性影响”显得急躁。

  面对众说纷纭的局面,本研究尝试在审视国内外相关文献主张的基础上,从更宏阔的复杂性范式视角出发,依循“是什么-会怎样-应如何”的逻辑,梳理与分析理解生成式AI基础原理、社会影响、治理方式的路径,以期为未来研究提供参考助益。

  二、理解生成式AI的基础原理

  技术如何模拟人类的认知与思考活动,是对人工智能技术进行哲学阐释的主线,也是理解人工智能技术的基本认识落点。如何认识生成式AI,也即回答该项技术“是什么”这一根本问题。

  生成式AI概念源自国外自然科学学者,指基于算法、模型、规则,在没有人为直接参与的情况下生成图文、音视频、代码等内容的技术,ChatGPT就是基于生成式预训练变压器这种具体的技术形式所实现的技术产品。生成式AI特殊的技术原理包括概率计算生成与实时标注训练,这表明,生成式AI是不同于以往判别式AI的技术——生成式AI是通过预测不同元素间的概率分布的手段来实现认知模拟,而判别式人工智能则是通过演绎式的规则输入来实现认知模拟。也就是说,生成式AI基于的是相关性和概率性,而不是因果性。

  传统的判别式AI是通过人类向其输入简单的线性计算模型来完成判别式任务。

  而生成式AI不同,它在人类一步步向机器描述微观对象特征的过程中适应调整,最后形成计算模型以完成任务,也即从微观对象到基础模型的对应逻辑。因此,生成式AI的运行必须建立在与人类的不断交互上,人类可以通过完善、细化指令的方式持续干预技术模型。在此过程中,人类关系、情感等非理性要素会在人机交互过程中被卷入计算模型中,以往被认为无法被机器识别的、模糊的关系和情感因素都会在人类的标注反馈与机器的适应学习中被技术所内化,并表现在其生成内容中。正因如此,我们可以在ChatGPT生成的文本中感受到“情商”与“情感张力”。生成式AI不仅仅是对人类理性思考的“延伸”,更是对人类情感关系的“延伸”。它是一种实现人类传播理性要素与非理性要素交织的新媒介技术。

  三、理解生成式AI的社会影响

  技术的社会影响如何?这是对生成式AI实践论的探讨,即厘清该技术“会如何”的问题。可以看到,生成式AI使诸如非理性等更多传播要素得以卷入传播过程中,形成社会影响:生成式AI得以以无界的方式嵌入人类全部实践领域中并成为社会生态的助推者与运维者,人类非理性逻辑与人工智能机器的理性逻辑得以碰撞并深入社会表达之中。生成式AI作为复杂性系统中的一种智能主体或智能工具,将深刻影响整个社会系统中的主体存在方式、网络连接方式和社会组织方式。

  (一)生成式AI通过智能“替代”发挥作用

  当生成式AI通过与人类共享的行动者主体身份融入复杂系统中时,将以智能“替代”的方式发挥作用,替代人类智能,自主完成工作。

  1.生成式AI对个人思维活动的“替代”:一方面,思维将从人类独有的实践活动变成人机共同协作的活动,生成式AI可能替代人类思维领域,制造经由赛博技术介入的新身体并形成人机一体的新传播单位。当个人习惯了与生成式AI互动交往之后,生成式AI则会侵入人体,代替人体执行决策,使人类思维模糊。另一方面,身体交往也会被所谓的“精神交往”替代。这是因为生成式AI等技术的使用不会受到身体制约,人类与生成式AI在交互之前就会拥有一套无主体、共享的原初经验,它们共处同一系统与机制之中,当两者身体达到一种耦合状态时,人类与生成式AI的“跨生命交往”成为可能。

  2.生成式AI对内容生产环节的“替代”:在内容生产实践中,生成式AI作为行动者可以给内容生产带来生产主体的开放性“熵增”,带来微内容涌现。当生成式AI取代了大量低端的信息传播和重复性的内容生产工作,职业内容生产者的生产活动也将向理性、深度、独创的方向深入推进。同时,生成式AI的嵌入还可能深入到内容理念层面,冲击社会对新闻、真相、时效、专业等概念的共识。内容观念的革新将推动内容产消两端都进入更迭流动状态,此时,内容网络则会突破既有供需对称的结构而进入新的开放状态中。以人类关系、情感为代表的非理性内容资源也被卷入内容生产场域中,在机器智能的算力支持下,经由生成式AI表现出来,生成式AI或成为人类语言的外化物。

  3.生成式AI对社会旧有结构的“替代”: 一方面,生成式AI将有助于打破既有的人类分工局面。由于生成式AI会替代生成“AI劳动力”,因而未来人机混合工作的新职业结构与社会分工将成为常态;同时,生成式AI还可以打破既有大众与精英在信息获取能力上的分工对立局面,突破人与人在认知把握和资源使用上所存在的天赋异禀及后天能力之间巨大差距的局限,将在很大程度上改写精英社会的组织结构模式,真正以个人为行动者的去中心化、分布式社会结构进程将被极大推动,“常人政治”或将会成为数字文明时代社会治理的基本特征。另一方面,生成式AI还有助于打破旧有的社会关系模式。作为一项新的智能互联技术,它以无界的方式全面融入人类实践领域(通用性)、以深度学习的方式不断为文本的生成注入“以人为本”的关系要素,进而提升了文本表达的结构价值,这将促使社会在“以人为本”的实践逻辑以及社会多元化价值追求的背景下朝分布式结构演进。

  (二)生成式AI通过智能“增强”发挥作用

  当生成式AI作为智能辅助工具进入复杂系统之中,它将通过智能“增强”的方式来辅助人类行动。

  1.生成式AI对个人认知力的“增强”:当生成式AI被用于辅助人类认知时,它可以通过技术赋能推动人类主体朝着创意密集型、想象密集型的智力增强主体进化。其一,生成式AI可以提高中低端脑力工作效率,帮助自动处理大量重复性任务,减轻人类主体的智力劳动强度。其二,生成式AI可以赋能个人生产力,帮助普罗大众跨越搜寻与获取信息的“能力沟”障碍,有效按照自己的意愿、想法激活和调动海量的外部资源,形成强大、丰富的社会表达和价值创造能力,对人类智能形成全面赋能。其三,释放个人创造力,当技术承担了人类语言、知识、思考里的重复工作之后,每个人都可以在更为盈余和闲暇的时空中激发出自身的创新潜能。

  2.生成式AI对内容产业噪音的“增强”:受制于技术缺陷,作为新技术进入内容网络中的生成式AI不可避免会带来信息失序的问题。例如由于数据集滞后和数据集错误,生成式AI可能出现批量制造事实性错误信息的情况。同时,由于算法缺陷,生成式AI所出现的“人工智能幻觉”现象更多,以一种令人信服但完全编造的方式来表达自己。我们必须辩证看待这种内容噪音。要想实现系统自发涌现,必须给系统提供“涌现新质”。只有系统突破既有的有序状态进入混沌无序状态时,涌现才得以出现。因而,在涌现理论中,提升系统开放性和动态性的适当“熵增”法是得到认可的。关键在于如何控制过度“熵增”给内容网络带来的噪音现象。

  3.生成式对社会关键节点力量的“增强”:随着社会层级打破,生成式AI再次将处于不同层级的人类个体和组织拉到社会表达的同一平均线上,社会力量会因此被化约为扁平节点——个体和组织将会以一种“社会公约数”的身份方式来交互与合作。当生成式AI逐渐成为人类智能普遍的增强工具后,创造该技术的组织将成为社会结构中连接众多社会资源的核心节点,关系着社会结构的整体存续。这可能带来信息霸权、资本霸权乃至政治霸权等社会问题。这预示着未来社会管理需要注重对关键技术节点的引导规制。当节点所连接的社会资源越多时,该节点则越关键。对这些关键性技术节点的治理不应也不能通过简单机械的压制与干预,我们应通过系统环境的结构引导来推动技术节点改变自己的发展规划和功能规划,以符合人类社会的共同利益。

  四、理解生成式AI的治理方式

  既已预测到生成式AI强大的社会影响,那么技术应遵循何种伦理框架发展、应如何制定治理规范,这些探讨主要回应技术“应如何”这一问题。而复杂性治理范式强调:简单机械的传统治理方式无法解决复杂系统的不确定性与复杂性,其核心在于转微入宏,关注系统整体结构与规则的治理。

  (一)治理思路:以宏观原则为指导的复杂性治理思路

  复杂系统中的多元治理主体具有自适应性和多重目的性,当不确定性发生时,他们能够自适应、自组织地应对混沌或挑战,彼此相互影响、相互作用,这也使得针对系统的治理行为及其结果难以预测,控制效果存在有限性。

  复杂性治理范式是一种建立在对创新有容错空间基础之上的规范性治理方式。数智互联网及其社会的媒介化进程是以创新为其基本发展条件和动力的,因此,对于创新自由度的保护成为复杂系统进化中不可或缺的必要,即治理范式中要有容错空间。据此,如今的治理思路应逐渐过渡到抓大放小的路径上,通过宏观的结构与规则管理、过程管理来实现治理目的。从宏观层面认识、厘清生成式AI的伦理原则,将是治理生成式AI的基础一步。只有如此才能从复杂性治理范式的角度形成对该技术的底层治理框架。

  (二)治理原则:道德伦理原则与算法伦理原则

  生成式AI可作为智能主体或智能工具对社会产生影响,因而生成式AI除了要遵循机器技术所应当遵循的算法伦理之外,还需要遵循因行动者主体身份所带来的新道德伦理。

  当考虑生成式AI的算法伦理时,需将其作为一种大规模语言模型看待。考虑生成式AI的道德伦理原则时,需承认生成式AI在创作过程中的准道德能力,重点在于规定其权责边界。我们应尝试将技术视为“他者”并赋予其一定的准道德能力。例如,需要承认与说明生成式AI在内容生产中的参与程度,同时生成式AI也必须对其使用的语料和拼凑式作品负责。

  五、理解生成式AI的未来发展

  (一)科林格里奇困境与智能试错方案

  2023年3月29日,一封《暂停大型人工智能实验的公开信》受到关注,千位科技顶级专家签名支持,随后GPT-5研发被叫停。这便是新技术发展过程中的科林格里奇困境。该概念指的是当新技术刚出现,我们没法推断出它的社会效应;而等到真正的负面效应出现时,由于技术已经融入社会太深,很难进行干预与改变。

  那么,该如何有效预防陷入这一困境?科技发展史上最为学术共同体认可的是“智能试错方案”,核心要点是在管理风险时要做到权力分散,在不断试错中了解风险,快速优化方案。要快速找到新技术的负面影响并加以控制,就应该让技术能更快地小规模试错,在用户反馈中找到它的短板与不足。只有这样,当技术真正面向大多数用户的时候,才不会引发难以估量的危害。而这也正是生成式AI应该步入的未来发展道路——在小规模试错中优化迭代,让其发展更透明、更公开、更可控。因此,未来关于生成式AI的研究也有必要转入到具体情境中,关注其试错表现并提出可用的优化迭代方案,这将对形成技术应用的直接方法论更为有益。

  (二)在具体情境中评测与理解生成式AI

  从具体情境中理解生成式AI,可以尝试探讨以下议题:其一,生成式AI下游应用层的研究。下游应用层是生成式AI实际产生社会效应的具体场景,因而对下游应用层场景要素、技术要素、人类智能要素的分析探讨,将更有助于我们见微知著,理解生成式AI的直接效果和可能问题。其二,生成式AI在应用中的实际技术逻辑研究。至今对生成式AI的技术逻辑剖析都是建立在技术发展的理想状态下,并未在应用中观照其实际的技术坐标,也即我们并不知道它在具体应用中究竟“新”在何处。探讨生成式AI的实际技术逻辑,将更有助于我们认识和理解新技术试错的表现。其三,生成式AI落地的社会建构因素研究。技术落地到应用层就不得不关注社会建构因素对其技术演进逻辑的“扭曲”。强调回到应用场景中研究新技术,不应只有应然状态的讨论,更应该有对其实然状态的探讨。

  (载《传媒观察》2023年第9期,原文约12000字,标题为《理解生成式AI:对一个互联网发展史上标志性节点的审视》。此为节选,注释和图表等从略,学术引用请参考原文。“传媒观察杂志”公众号全文链接

地址:海南省海口市玉沙路58号  电话:0898-66889888  手机:18888889999
Copyright © 2012-2018 首页-百威娱乐-官方注册站 ICP备案编:琼ICP备88889999号 

平台注册入口