
好了,接下来我想聊聊Cursor的使用体验,还有为什么AI不会取代人类程序员。
首先要说的就是限额的问题。我用Github Copilot的时候从来没有遇到过这种限制,花了100美元之后,想怎么用就怎么用。虽然免费用户有限制,但付费用户基本上不会遇到限额的情况。可自从Claude 3.7发布后,Cursor经常出现限额和限速的问题,导致我根本无法使用Claude 3.7的AI模型。到现在为止,我用的还是Claude 3.5版本。虽然这样也可以接受,但每次更新后都让我去充值才能用快速模型队列,真的让人不爽。我使用下来并没有觉得Claude 3.5特别慢,我只要不使用Claude 3.7就行了,为什么你要天天提醒我充值呢?这样的体验真的很差。既然你们要用自己的服务器转发AI,就应该考虑到高使用率的问题,结果跟那些视频平台一样,会员还要额外付费才能用更高级的模型,这样的行为真让人失望。
既然提到Cursor用自己的服务器作为中转,那就说说这种做法的利与弊。好处是可以不用科学上网就能使用AI服务,毕竟即使能科学上网,Claude的API也无法使用,还得花精力去搞信用卡等麻烦事,真是让人受不了。Cursor的中转服务确实省去了这些麻烦,花这笔钱也觉得值。但坏处是,Cursor的服务器可能会有自己设置的最高权限提示词,尽管我们在本地设置了提示词,经过中转后可能就会被覆盖。我们辛苦整理的提示词,可能根本无效。这点只是我个人的猜测,具体情况我也不能肯定。
接下来聊聊AI写代码的体验,我最大的感受就是,AI写代码就像开盲盒!要是有一天程序员真的只需要动动嘴来写代码,那世界上最牛的程序员肯定是那些运气特别好的人。
为了让AI在每次对话中都能保持连贯性,我会把AI的性格、工作记录等信息写进一个单独的文件里,然后每次新对话时让AI去读取这个文件。虽然我不期待AI能完全还原之前的对话,但至少保留五六分的记忆应该可以吧。结果是,前一轮对话时AI工作得很认真,但一旦开启新会话(Cursor推荐的右下角新会话,官方说能保持逻辑连贯性),整个AI就像换了个人,甚至可能变成了一个傻瓜,它不仅不知道自己的人设,还对项目的情况一无所知。这让我深刻感受到了项目经理与程序员沟通时的崩溃感,你做的和我说的完全是两回事啊!我开始怀疑,Cursor的代理服务器上是不是做了什么设置,导致一次对话得到聪明的AI,而下一次就变成了傻瓜,这种精神分裂的体验真让我受不了!
再来说说我自己定义的“大语言模型的注意力陷阱”。这个问题我觉得是AI编程无法逾越的障碍,可能永远也无法解决,只要注意力机制不改变。
注意力机制最初是为了人类对话而设计的,毕竟当时要突破的是图灵测试,而不是帮人类写程序。在对话中,谈话的双方只需要关注当前的内容就可以。比如我们从“吃了么”聊到“SpaceX对接国际太空站”,在这个过程中,可能就会忘记最开始的“吃了么”这句话,或者即使记得,但对后续对话已经没有太大意义,所以忽略“吃了么”也没关系。
但编程可不是对话啊!编程可不是对话!编程可不是对话!
编程中的每一个细节,无论是“吃了么”还是“SpaceX对接国际太空站”,都有其重要性,不能忽略任何一点。程序员为什么需要AI来辅助编写代码,不就是因为人类大脑难以记住那么多上下文吗?我们需要记住文档规范、每个文件中函数的用途和参数定义、接口调用的方式、错误处理的方式……这么多信息人类是记不住的,所以才需要AI来帮我们记忆。结果,AI居然也记不住,写了后面的代码就忘记了前面的,这跟人有什么区别!有区别,人的话至少会思考并解决问题,而AI则傻傻地忽略指令,一味地埋头苦干。你埋头苦干也就算了,为什么还要把本来正常的代码给我改坏呢!原本只是个小问题,结果整得整个项目都崩溃了!
所以我决定暂时放弃使用Cursor,继续用Github Copilot。为什么不再用Cursor?因为它出手干预的情况太多。有时候我只是想写个注释,它却把整个函数都写完了;但让我它独立去写时,它又总是写不好。它既不想单纯当辅助者,也没能力做好项目实施者,所以我还是觉得继续用Copilot这个老实可靠的编程副驾驶更合适。









