AI新观察 | 窥见美好未来时 更该多一份思考

2023-07-08 09:06:24    来源:新民晚报

爱因斯坦曾说,我从来不想未来,因为它来得太快。

得益于生成式人工智能相关技术的迅猛发展,智能创作时代正缓缓拉开序幕。当我们能够或多或少窥见人类与人工智能携手创作的美好未来时,我们也该有一份对未来的思考,这份思考将帮助我们更好地前行。


(资料图片仅供参考)

人工智能的发展经历过多次春天与寒冬,每一次春与冬的交织都和“通用化”及“专业化”的分歧息息相关。伴随着人工智能飞跃式进步,越来越多复杂场景出现,若还是针对什么任务训练什么模型,这种一般的工程思想也背离了人工智能的初衷,主打“通用化”的大模型在时代的浪潮下孕育而生。

通过在数据中捕捉更广泛、更精细的规律和关系,大模型可以生成更多样化且更真实的输出,让生成式人工智能变成现实,并且逐步深入我们的日常生活。

大模型在“狂飙”,却也必然伴随着“事故”,最显而易见的就是语言大模型常常提供错误或无意义的回答,要么就出现“幻觉”——我们常说的“一本正经地胡说八道”。

当然,最大的关注点,还是来源于伦理与法律。瑞莱智慧联合创始人、算法科学家萧子豪认为,大模型“落地难”的本质在于,当前仍处于“野蛮生长”阶段,还没有找到场景、风险和规范三者之间的平衡点。

大家首先关心的,莫过于大模型带来的“失业焦虑”。澜码科技创始人兼首席执行官周健分析,人们对于人工智能可能替代白领工作感到焦虑,但实际上这种替代是有先后顺序的,“在企业内部的组织结构上,可能从金字塔型变为钻石型,这意味着可以用不同的视角来管理团队和控制质量”。

还有,大模型所生成内容是否“有危险”,同样值得警惕,特斯拉首席执行官埃隆·马斯克就说过:“如果不加以控制,人工智能或许很有可能会摧毁整个人类。”

当然,人工智能领域频出的“换脸”事件,也给大模型时代的数字治理敲响警钟,生成式人工智能的版权问题、导致的欺诈问题、生成违禁内容等,都需要法律法规给“狂飙”下的大模型系好“安全带”,把好“方向盘”。

新民晚报记者 郜阳

标签:

X 关闭

X 关闭