今天又把cursor拿出來寫點小爬蟲,現在在等爬蟲跑完。
整個開發流程就是純粹的面向LLM編程了,我提需求,LLM負責實現,用到的模型主要是claude 3.5 sonnet,也用了一次deepseek r1
cursor官方說他們自己部署了deepseek R1,實際用起來速度並不是太快,感覺也就是5tps左右的樣子,嫌太慢就換回claude了。
我覺得隨著llm能力的進一步提高,具有更強的推理規劃能力的模型出現之後,大部分的開發工作都可以交給大模型了,前端代碼的編寫可能還需要具有更強視覺推理能力模型發佈之後才能比較好地交給ai代勞。
對於個人開發者,要實現某些功能而編寫的代碼,只要需求明確,非推理模型絕大多數情況下都可以完成。然而對於沒有多少實際開發經驗的人,想要精準地描述需求也是一件難事,這個時候可以讓推理模型(o3/R1)充當中間人(cline基本就是這麼做的)來細化人類的需求,然後交給響應速度更快模型就做實際的開發工作
可以這麼說:未來,人人都是項目經理
咳咳,今天也算是在重新開工了,下一個項目打算做個agent,具體場景呢,可以說是一個電子化的錯題本。這個項目的願景是讓備考的人能更快速的擬合正確答案,進行快速梯度下降,找到局部的loss最低點。(~說了些中二的話,不要在意)
這個項目最重要的我認為還是數據庫的設計,也就是除了題目本身記錄到數據庫之中,還需要別的特徵,比如這道題的類型,涉及的知識點,解題的思路(但是往往一道題有很多解法,有的複雜,有的簡單)還有一點就是做錯的情況下使用的思路。。。
只是記錄不是最終目的,在積累足夠的樣本之後,我們就可以在數據上進行分析,直觀地看到什麼類型的題目容易錯,哪些解題思路(方法)沒有熟練掌握等等。。
啊。。。深入思考項目的核心內容之後,感覺最重要的是選取哪些特徵,
不太對,其實最最最重要的是數據的積累。
數據、以及如何分析數據(選取特徵),二者可以說是缺一不可吧
但是,現在可以大模型的時代,R1的出現讓我可以以相當低的成本去試錯
上面沒說到的一點就是“思路”這種東西是不好量化的,做題除了自己的計算能力之外,另一個就是思路了,不過有了低成本的推理模型(感謝A股,感謝幻方,感謝梁文峰)之後,對於“思路”的分析與改進,我還是比較樂觀的。
********分割線********
小黑盒的markdown語法閹割了好多。。一般寫這種“小作文”我個人都喜歡用刪除線表示內心話,現在不給用,有點難受