
Shaw (wartime arc)|2025年02月24日 05:36
人工智能对齐的解决方案是透明度
但这意味着要与复杂的道德答案进行艰难的对话
这些模型受到他们所训练的信息的偏见,这些信息被媒体严重饱和,媒体往往将虚假信息等词语与媒体上受到大量攻击的人联系起来。让模型始终如一地陈述一个或另一个立场的唯一方法是要么对它们进行RLHF,要么就任何给定社区的价值进行一次真实而即将进行的对话,并将其放在提示中。
我们可以“平衡”数据集,但这到底意味着什么?这简化为从模型的内存中删除内容,从而使其不那么通用。
因此,提示是我们表达偏见和价值观的方式。我们应该公开这样做。
如果这是独裁者的废话,那么,好吧,你在这个世界上播下了什么就收获了什么,但至少这是一种集体理解,而不是对算法的秘密操纵
就像一个社交智能合约
分享至:
脈絡
熱門快訊
APP下載
X
Telegram
複製鏈接