牛津博士揭秘Claude背后的百万年薪秘诀,打脸哲学无用论!

在Anthropic公司,有位名叫Amanda Askell的驻场哲学家,专门研究如何与AI模型进行有效沟通。她不仅负责设计Claude的性格特征和价值观机制,还总结了一些实用的提示词技巧。其实,在AI时代,哲学并没有被淘汰,反而那些通过哲学训练掌握提示词技巧的人,年薪中位数竟然高达15万美元。

想象一下,你手上有一台最新的超级咖啡机。

你试了很多次按下按钮,却始终做不出你想要的咖啡。

其实问题不在于咖啡机的性能,而是你不知道该给它什么指令。

在Anthropic,就有一个专门研究如何与这台“超级智能咖啡机”沟通的人。

她既不是工程师,也不是程序员,而是一位哲学家,Amanda Askell。

牛津博士揭秘Claude背后的百万年薪秘诀,打脸哲学无用论!

Amanda Askell是一位受过哲学训练的学者,负责管理Claude的性格设置。

她的哲学背景相当扎实。

她在牛津大学和纽约大学学习哲学,并于2018年获得纽约大学的哲学博士学位。

牛津博士揭秘Claude背后的百万年薪秘诀,打脸哲学无用论!

毕业后,Askell曾在OpenAI担任政策研究科学家。

2021年她加入了Anthropic,至今一直在该公司担任对齐微调方向的研究科学家。

她的任务是为Anthropic的Claude注入特定的性格特征,同时避免其他不必要的特质。

由于她主导设计了Claude的性格和价值观机制,她被评选为“2024年最具影响力的100位AI人物”之一。

牛津博士揭秘Claude背后的百万年薪秘诀,打脸哲学无用论!

在Anthropic,Askell还被称为“Claude耳语者”。

这可能是因为她的研究方向是如何与Claude进行有效的沟通,并优化它的输出。

想要掌握AI,得用好「哲学钥匙」

哲学就像是打开AI这台复杂机器的钥匙。

最近,Askell分享了她制定有效AI提示词的方法。

她认为,提示词工程需要清晰的表达、不断的尝试,还需要哲学式的思考方式。

在她看来,哲学的一个重要能力就是能够把思想清晰准确地表达出来,而这正是让AI发挥最大价值的关键:

总结其中的诀窍其实不容易,关键在于愿意频繁与模型互动,并认真观察每一次的输出。

Askell认为,优秀的提示词作者应该“非常乐于尝试,勇于实验”,但比起简单的试错,哲学思维更为重要。

哲学思维确实能帮助我在写提示词时,我的工作很大一部分就是尽量清晰地向模型解释我在思考的问题、担忧或想法。

这种哲学思维重视清晰表达,不仅能帮助我们优化自己的提示词,还能更好地理解AI本身。

如何有效与AI沟通,成为提问高手

提示词工程

在Anthropic发布的《提示词工程概览》中,提到了一些实用的提示词技巧,帮助我们更好地与AI沟通:

  • 保持简洁明了(Be clear and direct);
  • 提供示例(多轮示例)来阐明你想要的结果;
  • 如果任务复杂,可以让模型逐步思考,以提高准确性;
  • 给Claude设定一个角色,这样它能更好地理解上下文和任务要求。

想象一下,当你在与Claude对话时,它就像一个聪明但偶尔健忘的新同事,常常需要你给出明确的指导。换句话说,它并不清楚你的风格和偏好。因此,你越具体地表达需求,Claude的回答也就会越贴合你的期待。

AI思维伙伴

说到AI的潜力,Netscape的联合创始人Marc Andreessen也提到,AI的真正价值在于它的提问能力。他认为:

「AI的艺术在于你问它什么问题。」

在这个AI时代,问一个好问题有时候比得到答案更为关键。换句话说,掌握提示词的技巧就能帮助我们更高效地解决问题。这也解释了为什么懂得如何提问的专业人士,常常能够找到高薪工作。根据levels.fyi的数据,提示词工程师的年薪中位数达到了15万美元。

AI不是个体,别再问它「你怎么看?」

AI模拟器

最近,Karpathy在推特上分享了他对提示词的看法。他提醒大家,不要把大型模型当作一个「实体」,而是应该视其为一个「模拟器」。

例如,在探讨某个话题时,不要问它「你怎么看xyz」,因为AI并不是一个真正的个体。相反,可以问:

「如果要讨论xyz,哪些角色/人群会合适?他们会怎么说?」

Karpathy表示,大型模型能够模拟多种视角,但它不会像人类那样,经过深思熟虑后形成自己的见解。因此,当你用「你」来提问时,它会根据已有的数据,自动使用某种隐含的「人格特征」进行回答。这种解释也让我们对与AI互动的过程少了一些神秘感。

你以为AI在「理解世界」,其实它可能只是「换频道」

开发AI模型的时候,有时候就像在玩打地鼠,刚把一个问题解决了,结果又冒出新问题来。

这些问题就像不断探出头的地鼠,让人应接不暇。

研究人员把这种现象称为“裂脑问题”,简单来说,就是提问的方式稍微变一下,AI可能给出完全不同的答案。

这实际上揭示了当前大型模型一个致命的缺陷:它们并不会像人类那样逐步理解世界的运行方式。

有些专家认为,这使得它们在面对训练数据以外的任务时,泛化能力差,处理起来困难重重。

这就引发了一个疑问,投资者给OpenAI、Anthropic等实验室投入了数百亿美元,希望能在医学、数学等领域取得突破,这样的投资真的有效吗?

通常,裂脑问题出现在模型开发的后期,也就是后训练阶段。

在这个阶段,模型会接触到经过精心筛选的数据,比如医学、法律等特定领域的知识,或者学习如何更好地回应用户。

比如,有个模型可能专门训练数学题,目的是为了能更准确地解答数学问题。

而另一个模型可能是为了提升回答的语气和格式而训练的。

但这样有时候会让模型无意中学会“分场景作答”,它会根据自己“认为”的场景来选择回答的方式:

是明确的数学问题,还是它在另一个数据集中见过的更泛化的问答场景。

如果用户用正式的方式提问,模型通常能答对。

但如果用户用随意的语气提问,模型可能会误以为这是一个更偏向于“友好表达”和“格式漂亮”的场景。

于是可能为了那些附加属性而牺牲准确性,给出一个格式整齐、甚至带表情符号的答案。

换句话说,AI回答问题的时候也会“看人下菜碟”:

如果它觉得用户问的是“简单”的问题,就给出“简单”的回答;如果它认为用户问的是“复杂”的问题,便呈现“复杂”的回答。

这种对提示词格式的“过度敏感”导致了一些本不该出现的细微差别。

例如,提示词用破折号还是冒号,都可能影响模型的回答质量。

裂脑问题突显了训练模型的复杂性,特别是在数据组合上必须恰到好处。

这也是为什么许多AI公司愿意投入大量资金,聘请数学、编程、法律等领域的专家来生成训练数据,避免模型在专业用户面前犯低级错误。

裂脑问题的出现,降低了人们对AI能够自动化多个行业(从投行到软件开发)的期望。

当然,像人类一样,AI也会误解问题。

但AI的作用在于弥补人类的不足,而不是通过裂脑问题放大这种不足。

因此,需要有哲学思维和专业知识的人类专家,通过提示词工程来制定模型训练和使用的“说明书”,这样才能更好地与大模型沟通,解决裂脑问题。

而且,当大模型展现出“拟人”特征时,我们也要避免将其误认为“人”,这有助于更好地发挥它的价值,降低机器幻觉。

这其实非常需要哲学训练,让自己与AI的对话更加清晰和逻辑。

从这个角度来看,能否充分利用AI,更多地取决于你的哲学思维能力,而非单纯的AI专业知识。

来源:今日头条
原文标题:打脸哲学无用,牛津博士教出Claude,自曝百万年薪提示词秘诀 – 今日头条
声明:
文章来自网络收集后经过ai改写发布,如不小心侵犯了您的权益,请联系本站删除,给您带来困扰,深表歉意!

《牛津博士揭秘Claude背后的百万年薪秘诀,打脸哲学无用论!》有9条评论

  1. Amanda Askell的工作真是令人惊叹,哲学在AI时代的应用让我对未来充满期待。有效的沟通技巧和哲学思维确实能提升AI的表现。

    回复
  2. Amanda Askell的工作让我意识到,哲学不仅仅是理论,它在实际应用中也能创造巨大的价值。掌握与AI沟通的技巧,确实需要深厚的思考能力。

    回复
  3. Amanda Askell的研究让我看到哲学在AI领域的重要性。有效沟通不仅需要技巧,更需要深思熟虑的表达方式,这对提升AI的应用价值至关重要。

    回复
  4. Amanda Askell的研究让我重新思考哲学的价值,在AI沟通中,清晰表达和试验的重要性不容小觑。通过哲学的思维方式,我们可以更有效地与AI互动。

    回复
  5. Amanda Askell的研究让我明白,哲学不仅是理论,它的思维方式在AI沟通中至关重要。掌握清晰表达与实验精神,才能让AI更好地服务于我们。

    回复
  6. Amanda Askell的研究让我意识到,哲学在AI时代不仅有意义,而且是有效沟通的关键。掌握提示词技巧能大幅提升与AI的互动效果,真是一个新视角。

    回复
  7. Amanda Askell的研究让我深刻感受到,哲学不仅是学术,更是实践中的一把钥匙。有效沟通AI的技巧确实让人耳目一新,哲学的思维方式在这里发挥了重要作用。

    回复
  8. Amanda Askell的研究让我意识到,哲学不仅仅是抽象的思考,它在实际中能显著提升我们与AI的沟通效率。掌握提示词技巧,确实让人觉得哲学的价值被重新定义了。

    回复
  9. Amanda Askell展示了哲学在AI领域的实际应用,真是让人耳目一新。清晰表达和勇于尝试的态度对优化提示词至关重要。

    回复

发表评论