LangChain教程:安装dashscope库、调用阿里千问大模型 作者:马育民 • 2026-02-23 21:29 • 阅读:10004 # 安装库 需要安装 `dashscope` 库,在 `poetry` 虚拟环境下执行下面命令: ``` poetry add dashscope ``` # 例子 下面例子是将结果 **一次性返回** ``` from langchain_community.llms.tongyi import Tongyi # 不用qwen3-max,因为qwen3-max是聊天模型,qwen-max是大语言模型 model = Tongyi(model="qwen-max", api_key="填你的阿里前文api key") # 调用invoke向模型提问,一次性返回结果,返回字符串类型 res = model.invoke(input="你是谁呀能做什么?") print(res) ``` 执行结果: ``` 您好,我是Qwen,是阿里云开发的一款超大规模语言模型。我被设计用来帮助用户生成各种类型的文本,如文章、故事、诗歌、故事等,并能够根据不同的场景和需求提供相应的信息和支持。我可以回答您的问题、参与创造性的思考、提供学习资源推荐、辅助写作、进行对话交流等。如果您有任何问题或需要帮助,请随时告诉我! ``` ### 关键代码说明 ``` model.invoke() ``` 是一次性返回结果 与我们平时使用大模型不同,平时使用大模型时(如豆包),回答结果是一段一段,这种是 **流式输出** 原文出处:http://malaoshi.top/show_1GW2peUF3Lcw.html