20天狂宴Pytorch-Day8
低阶 API, 中阶 API, 高阶 API, 登神长阶 API.
低阶 API
线性回归模型
生成随机测试数据.
n = 400 |
终于拿到了心心念念的 Switch2, 也玩上了心心念念的动森.
下一步准备蹲个便宜点的旷野之息卡带, 主机游戏是真的贵啊. 动森想去别人的岛都得开个 VIP, 唉日本人也太坏了.
其实我有点想在这写点类似开荒日志之类的东西, 想想还是算了, 太蠢了.
LLM 在语言理解和决策任务中表现出色, 但在推理和行动方面的能力很少被联系起来研究. 本文探讨了如何让 LLM 交错生成推理轨迹和针对任务的特定行动, 从而增强两者之间的协同作用: 推理轨迹帮助模型生成, 追踪并更新行动计划, 处理异常情况, 而特定行动允许模型与外部来源 (知识库或环境) 进行接口交互并获取额外信息. 作者将该方法命名为 ReAct (Reason+Act), 并将其应用于多种语言和决策任务, 展示了它在先进的基准上的有效性和更高的人类可读性与可靠性. ReAct 在问答和事实验证中, 通过和简单的维基百科 API 交互, 在思维链 (CoT) 中克服了普遍存在的幻觉和错误传播问题, 生成了类似人类的解决任务轨迹, 比基准更具可解释性, 不带推理痕迹. 此外, 在两个交互式决策基准测试中, ReAct 的成功率显著超过了模仿和强化学习方法, 只需在 prompt 中给出一两个上下文的例子.
丝之歌终于要出了, 我已经记不清我等了几年了. 我是高一玩的空洞, 所以应该是五年左右.
究竟是怎样的结局, 才配得上这一路的颠沛流离😭😭😭