Sora是倒逼人文学科彰显价值的AI神器|荔枝时评

2024年02月18日 17:38:07 | 来源:荔枝新闻

字号变大| 字号变小

文/王晟

(作者王晟,荔枝新闻特约评论员,媒体人;本文系荔枝新闻客户端、荔枝网独家约稿,转载请注明出处。)

想必您已经刷到了AI新神器Sora生成的短视频。在笔者看来,它不仅是人工智能技术的新里程碑,也恰恰是倒逼和证明当下人文学科价值的最好工具。

这两年的春节假期,恰是人工智能领域奉上惊喜大礼的时刻:继去年ChatGPT的爆火,OpenAI于2024年2月16日再次推出人工智能“杀手锏”级的AIGC应用:Sora 文字生成视频AI工具。

这是一款用户输入文字指令,AI即可生成视频的产品。但是与以往类似产品不同,此番发布的AIGC样片,其光其影,其人其景,几乎完全可以媲美现实世界,一扫此前同类AI产品生成视频的“塑料感”“动画感”。

比之更惊艳的,是AI生成视频的画面美感、运镜过渡,如同顶级摄影和剪辑大师的作品,行云流水富有张力,用时下最简单的网络语言评价,就是“洋气”。

但Sora带来的冲击却是实实在在的:

刷到Sora生成的视频,普通人啧啧称奇的同时,恐怕也会涌起一丝焦虑:眼看着人工智能技术好像踏上了筋斗云,发展速度日行千里。我们刚刚对大模型、AIGC摸着点头脑,它又变化出了这般高级模样,让人追都追不上,何谈“拥抱AI”?

加上同样飞速迭代发展的机器人、无人驾驶、甚至开始临床试验的脑机技术……未来自己的工作岗位会不会被人工智能取代,谁能说得清?

据说Sora刚刚发布,影视生产制作行业反应最大,很多人惊喜于有了新的辅助生产工具,但还有很多人更加担忧。2024年1月美国某行业调查公司发布的调查显示,好莱坞有36%的从业者表示自己的工作已经受到生成式AI技术的影响,所在企业部分岗位被合并,尤其是视觉特效、音效、绘图等以往最需创意与技术的岗位。

开发Sora的OpenAI也是顾虑重重——在发布介绍Sora的网页中,他们一方面召集行业专家,就有关信息误导、仇恨偏见等科技伦理方面的问题,对该产品开展专项测试。

另一方面,他们还在构建工具,帮助检测误导性内容,比如检测视频产品是否由Sora生成。

此外,还要设立文本分类检查,禁止用户输入涉及极端暴力、性、肖像、违反知识产权等有害的文本指令,为AI生成的每一帧视频把关。

若是从更宏观的领域考量,文本生成视频的技术还有别的隐忧。比如有人提出,如何能保证诸如Sora这样的超级AI工具不被“武器化”,成为所谓“融合战争”的战术手段?怎么保证不让假消息被其“洗”成了欺骗世界误导舆论的事实?

您看,Sora等AI技术的横空问世,是人工智能技术的巨大突破,它带来的影响却涉及方方面面,从国际关系到法律伦理,从劳资安全到社会心理,亟需外交、法律、经济、社会、心理、传播等等学科,给出来自人文视角的解决方案。

我们看到,在过去一年中,针对大模型和AIGC的爆火,来自外交、法律、管理等领域的应对最为迅速。

2023年,在英国举行的首届全球人工智能安全峰会上,包括中国、美国和欧盟等国家和地区就AI带来的机遇和风险,以及各国政府携手应对挑战的必要性达成共识,并签署《布莱奇利宣言》,中国还提出了《全球人工智能治理倡议》,为全球AI治理的探索,贡献了自己的智慧。

2023年7月,在大模型和AIGC刚刚火爆之后,我国网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布了《生成式人工智能服务管理暂行办法》,从行业发展的角度,规范引导人工智能服务健康发展,与此同时,欧美国家也相继推出各自的AI服务监管办法。

然而,当2024年Sora展现出机器更加精准地感知和理解物理世界的“超能力”之时,一系列问题同样被放大:

我们如何维护人类的尊严,发掘人类更大价值?

在AI时代如何关照人类个体,给与足够的尊重与共情?

在科技伦理被重视的同时,如何保证人工智能尊重我们的文化背景、价值观、保障我们对社会公平公正的不懈追求?

以及,在愈发强大的AI面前,我们该如何自处?

显然,这些问题需要人文学科在倒逼之下,做出与人工智能发展速度相匹配的努力。

我们需要的不仅仅是一句“要充分拥抱AI技术”的心理按摩,而是来自人文学科实实在在地深入研究,真诚切实的建议与引导。

今天,被称为全球最大规模节日迁徙的中国春运,已经进入尾声,而另一场规模更为浩大的人文探索之旅,仍在路上——

人工智能的全新时代,我心安处在何方?

欢迎关注荔枝锐评(lizhirp)公众号:

下载荔枝新闻APP客户端,随时随地看新闻!

layer
快乐分享