- 在 call_openai_api 函数中添加 rounds 参数,支持多次调用 - 累加每次调用的耗时和 token 使用情况 - 将多次调用的结果存储在 LLMRequest 对象的 response 列表中 - 更新函数返回类型,返回包含多次调用信息的 LLMRequest 对象 - 优化错误处理,记录每轮调用的错误信息
- 新增 reasoning.py 文件,实现与 OpenAI API 的交互 - 添加 call_openai_api 函数,用于发送请求并处理响应 - 支持可选的 LLMParameters 参数,以定制化请求 - 处理 API 响应中的 tokens 使用情况 - 提供错误处理和缓存 token 字段的处理