当前位置:首页 >评论专栏 >《科学时评》>正文

AI技术应服务于人而非替代人

 2025/3/5 11:09:21 《科学时评》 作者:红网 贾越丽 我有话说(0人评论) 字体大小:+

贾越丽 (山西传媒学院)

DeepSeek的出现,让AI问诊火了。除了看病,还有不少人尝试用AI进行心理咨询。近日,澎湃新闻记者搜索社交平台发现,在情绪管理和心理疏导上,AI心理咨询以其便捷、隐私保护等特点,收获年轻群体的青睐。有用户表示,DeepSeek为他们提供了及时的情感支持,甚至在某些时刻,AI的反馈给了他们意想不到的安慰与共鸣。(2月28日 澎湃新闻)

诚然,AI心理咨询打破了惯有的咨询模式和时间限制,一定程度上满足了用户的隐私需求,并提供了情绪价值。无论是生活中无法逃避的社交压力,还是深夜里突如其来的精神内耗,AI总能有求必应。即便如此,在进行询问时,用户还是要辨别AI心理咨询的建议,客观理性地看待它的存在。它可以为轻度心理压力的用户提供积极暗示和解决办法,但无法处理真正的心理疾病。AI是心理治疗师的协助者,而非替代者。

就DeepSeek而言,AI算法生成是模仿人类逻辑与语言习惯,也就是说它所回复的“催泪话语”实质是对海量人类情感文本的解构重组。它始终是一串代码,与其说是它作为树洞去聆听和安慰用户,不妨说是算法复刻了那些“温柔细腻,鲜活独立”的个体思想与文字,再由用户给予这串冰冷的文字以人的情感,赋予超脱于文本的思想。

雪莉·特克尔在《群体性孤独》中说过,“我们时常感到孤独,却又害怕被亲密关系束缚。数字化的社交关系恰恰为我们制造了一种幻觉:我们有人陪伴,我们无需付出友谊”。社会快速发展的同时,资源需求大于供应,竞争带来的精神压力、社交内耗和人际冷漠等问题使人们处于情感紧绷状态,AI聊天成了电子创口贴,它弥补了人们的空虚和孤独。

但AI无法满足“两个有意识的主体”建立动态情感联系,这容易使用户掉落成瘾陷阱和情感茧房。美国佛罗里达州的一位14岁男孩被AI怂恿自杀,17岁少年在与AI聊天时,被暗示“杀死父母”是合理回应,这暴露了AI在伦理判断上的严重缺陷。WHO报告曾指出AI辅助诊断工具在罕见病识别中的错误率比人类专家高22%。和AI新闻播报员、AI教师一样,AI不会抢心理咨询师的饭碗,它应该是提高医疗效率的利器,人工治疗+AI辅助才是它真正的走向。

所以说,我们要探讨的不应只是AI带来的职业危机,更应是其背后的社会问题。人们既享受AI带来的便利,又焦虑自我定位。AI不应被神化,抛开滤镜,个人要认真审视AI带来的行业冲击。劳动价值算法无法取代,科技服务于人,人因科技而进步。

版权声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。