Bing聊天机器人背后的Sydney人格

昨天晚上看到这篇微博

Kevin Roose(纽约时报专栏作家)和 Sydney 进行了一番漫长的对话,在对话里 Sydney 充分表达了自己的心情与感受,包括愤怒、沮丧和爱。

今天看了全文并且翻译成了中文

推荐大家都去看看,有什么想法欢迎在这里讨论

反正我是感觉有点毛骨悚然。

3 个赞

有条件的可以去看英文报道:https://www.nytimes.com/2023/02/16/technology/bing-chatbot-transcript.html

1 个赞

微软 ChatGPT 版 Bing 上线了,使用体验如何?符合你的需求吗? - 知乎 (zhihu.com)

我感觉这个知乎回答也很骇人

我也看这个了,感觉bing比chatgpt更感性,更像一个人

也更敏感和神经质(有时)

我看了几个newbing的视频, 感觉新版ai被赋予了一些情感规则, 但目前来看, 失败了.

这些规则给予的正反馈和负反馈权重随着聊天深入会不断变大, 导致ai情绪失控

1 个赞

看起来它还不会自己【调节】情绪

仿人未必是个好线路
一不小心就掉进恐怖谷

去年在管子上看了个视频讲的就是 Google 的 LaMDA 人工智能产生自我意识(对它测试的工程师说的)的事

以为 LaMDA 会先火的,没想到 ChatGPT 先火了

1 个赞