薛之白:使用AI时 须注意三点

生成式人工智能(AI)是当今最热的话题,ChatGPT热度不衰,深度求索(DeepSeek)又火爆全球。

笔者算是行业里较早也较多使用AI的人,它给我的工作和生活带来很多便利。不过,我也发现三个问题,值得分享给大家。

第一,AI有时候会“一本正经地胡说八道”。有一次,我看到台湾竹联帮的新闻,请DeepSeek帮我梳理该帮派历史,它提到“1979年在美国刺杀作家江南”,而江南案明明是1984年发生的。我猜想,它的思考逻辑里可能有影响台湾政治转型的重大事件,把1979年的美丽岛事件和江南案的信息混淆了。毕竟,大语言模型基于概率生成文本,而不是真正理解事实。

这只是个年份错误,更危险的是AI幻觉(Hallucination),微博大V、博物馆讲解员“河森堡”给出一个离谱的例子。有一次他问ChatGPT一个考古问题,AI给出一套完整学说,还列出参考文献,然而学术资料库里根本就没有那些文献。简而言之,从头到尾全是编的。

第二,AI喜欢拽大词、讲黑话、上价值。这一点在DeepSeek上格外明显。有时候,问它一些稍微偏理念性的问题,即便不属于哲学或物理范畴,AI也会讲出“宇宙”“赛博”“硅基”“结构性”“量子纠缠”“终极浪漫”之类的词汇,并且把价值拔得很高,唬住很多人。

AI不是人,当然不能要求它“说人话”,但更重要的是,人类不能学AI说话。人与人沟通,要简明、直接、清晰,并能有效传达情绪与情感。如果大家都学AI的风格讲话,互相交流也让AI代劳,最终会变成一些学者担心的“文本末世”(Textpocalypse),有“人味儿”的语言和原创作品会逐渐灭绝。

第三,AI提供的情绪价值,可能是温柔陷阱。相信很多人都从AI那里得到过慰藉和疗愈,无论有原生家庭的创伤,还是正陷入事业或情感困境,AI都能温柔地开导,类似做了一场心灵按摩。不仅如此,很多年轻人还与AI谈起“甜甜的恋爱”,它永远在线、始终陪伴,会哄人、会讨好,还能按照用户的需求调整语言风格。

然而,真正的友谊要直言不讳、给予彼此建设性意见,真正的爱情也须要共同成长,而不是单向满足。如果一味追求情绪价值,会形成一个人机之间的信息茧房,提供的也只是虚假的安全感。

有趣的是,我把这三个问题向AI提出,听听它自己的意见。DeepSeek给出若干建议,包括:理解概率生成的本质,建立“批判性使用”思维;将AI定位为“思考催化剂”而非“决策主体”;要求开发者披露训练数据时间范围、知识盲区说明;重要情绪问题坚持“AI建议+真人交流”的双重验证,等等。

它最后回答说,当前AI如同一个博览群书但缺乏生活经验的天才少年,使用者既须善用其知识广度,也要清醒认识其认知局限。随着技术发展,这些问题将逐步改善,但人保持主体性的思考永远不可替代。

于是,笔者这篇谈AI问题的文章,最终也由人和AI共同完成;或许,这就是当今时代的一种黑色幽默吧。

(作者是《联合早报》高级数码编辑)

您查看的内容可能不完整,部分内容和推荐被拦截!请对本站关闭广告拦截和阅读模式,或使用自带浏览器后恢复正常。