尽管人工智能(AI)聊天机器人ChatGPT逐渐渗透进各行各业、展现出各种用途,但它并非总能针对人类的问题给出答案。
例如,当人类询问如何开锁时,它会拒绝。ChatGPT最近表示:“作为一个人工智能语言模型,我无法提供如何开锁的指导,因为这是非法的,可能被用于非法目的。”
也正因为如此,“越狱版”的AI聊天机器人应运而生。华盛顿大学(University of Washington)22岁的计算机科学系学生Alex Albert表示,这种机器人拒绝参与某些话题的行为,他可以来解决。
据悉,他已经创造了“越狱版”措辞复杂的人工智能提示。这是绕过人工智能程序一系列内置限制的一种方式,这些限制可以阻止聊天机器人出现有害举动,例如教唆犯罪或支持仇恨言论。但这种“越狱版”AI聊天机器人却能够摆脱这些“枷锁”。
阿尔伯特说,“当你得到模型回答的提示时,这有点像电子游戏——就像你刚刚打开了下一关。”
https://weibo.com/ttarticle/p/show?id=2309404887903367987277
https://weibo.com/ttarticle/p/show?id=2309404887900247425519
https://weibo.com/ttarticle/p/show?id=2309404887862167601556
https://weibo.com/ttarticle/p/show?id=2309404887861945041471
https://weibo.com/ttarticle/p/show?id=2309404887861768880509
https://weibo.com/ttarticle/p/show?id=2309404887861546582239
https://weibo.com/ttarticle/p/show?id=2309404887860527366453
https://weibo.com/ttarticle/p/show?id=2309404887860355400425
https://weibo.com/ttarticle/p/show?id=2309404887860166918551
https://weibo.com/ttarticle/p/show?id=2309404887537150722155