-
AI的“思考”方式:概率与统计 vs. 逻辑与精确
AI(大语言模型)的本质:当前的AI(如GPT、Copilot等)是基于概率的生成模型。它的核心能力是:根据海量代码数据,预测“在给定上下文后,下一个最可能出现的词(token)是什么”。它更像一个拥有无限记忆、速度极快的“超级代码补全工具”,而不是一个理解所有业务逻辑和物理世界的“数学家”。
代码的特性:代码是精确的逻辑表达。一个符号的错误(比如=
和==
)、一个分号的缺失、一个括号的不匹配,都可能导致程序无法运行或产生灾难性错误(尤其是在金融、航天等领域)。
矛盾点就在这里:让一个基于概率的模型去产出100%精确的逻辑结果,是极其困难且高风险的。一行行生成代码,相当于把最终的逻辑控制权和审查权交给了人类工程师,由人类来充当那个“绝对精确”的最终检查者。 -
为什么“直接生成可执行文件”目前不现实?
“直接生成可执行文件”意味着AI需要一次性、无差错地完成以下所有步骤: -
完全理解模糊的自然语言需求(比如:“帮我做个带用户登录和支付功能的电商网站”)。
-
进行系统架构设计(选择技术栈、设计数据库 schema、设计API接口)。
-
编写所有前端、后端、数据库代码,并且所有代码之间完美协同,没有错漏。
-
一次性通过编译,没有任何语法错误。
-
生成的程序没有任何逻辑Bug和安全漏洞。
讨论话题:
城市:
你想多了,你说是agent的工作,也确实有可能这样做,但是AI分阶段的不确定性会导致最终结果与目标相差甚远, 更何况LLM目前对上下文的理解还是基于经验主义的检索为主, 归纳总计的理解能力仍然不足。之前尝试让它来修改我的核心架构代码逻辑, 基本上一改一个错,只能作为review工具使用,相反用作实现智力密度不高的业务代码倒是很快能跑。基本上现在的AI编码,它就好比一艘分阶段自动驾驶的船,如果在每个阶段偏移一点点,最终结果可能就是南辕北辙了,现阶段最好的方法依然是需要人类进行分阶段的介入和调整
你说的没有错,主要是为了上下文检索为主。但是在3D模型上AI能直接生成模型文件。
现在的ai只能做到相似,但是实际我们需要的一样,相似和一样差别太大