-
Notifications
You must be signed in to change notification settings - Fork 113
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[bug]ValueError:Cannot use llm_chat_callback on an instance without a callback_manager attribute. #40
Comments
我遇到的情况应该是两部分,一个是 项目在vscode下遇到的"模块名和py文件名相同时的冲突",这部分可能是vscode的python extension或者是其他部分有关系,我准备稍后用pycharm试试,如果没有问题,我再更新. 第二个就是我修改了以下几处的,替换同名 或者是参考llama-index仓库里其他版本的类似写法(
以上操作后,可以顺利执行: 上述步骤后,我就会遇到标题里的ValueError报错. 我也尝试通过给以上逐行代码添加断点,来尝试捕捉,但我在vscode 里面打开debug模式后,第一次触发断点会是在 具体的Exception位置如下: Line 237 in fa38cf0
|
你再确认一下llamaindex的版本( |
尝试了一下使用windows11自带的terminal,成功实现了调用。 看来应该是我自己电脑上ide配置的问题,后续如果我解决了我再继续更新办法 |
I am using llama-index version 0.10.0 and getting the same error. The command |
Hi Ishita. About this, I have searched answer and I believe You can run |
问题描述
按照项目中的 Windows 说明按步骤执行过程中,遇到了问题。
环境信息
执行步骤列表
clone项目到本地。
使用 .venv 创建虚拟环境——Python 版本是 3.9.12。
pip——过程中,会自动安装最新版本的 llama-index(版本是 0.10.x)。
pip——我手动升级为 0.9.39。
首次运行前——在 VSCode 下遇到了模块与文件名重名的情况,需要修改 3 处才能运行
python cli.py
。修改的地方分别是:from llama_index.core.query_pipeline.components import (...)
(components模块下的components.py无法识别)from llama_index.core.llms.llm import LLM
(llm 模块下的llm.py无法识别)from llama_index.core.llms.llm import ChatMessage, MessageRole
from llama_index.core import global_handler
(llama_index.core模块下没有global_handler)build txt 过程没有遇到问题。
在执行
ask -d
过程中可以正确返回结果,但随后产生了 ValueError。The text was updated successfully, but these errors were encountered: