网盘截图:

课程目录:


├── 直播回放篇
│   ├── 直播回放
│   │   ├── GPT4o的函数调用实战与结构化生成回答与提示缓存原理.ts
│   │   ├── LangGraph 中 Human-in-the-loop 应用实战.ts
│   │   ├── Qwen2.5介绍与部署流程.ts
│   │   ├── Llama 3.1介绍与部署流程.ts
│   │   ├── Qwen2.5-Coder&Math介绍与部署.ts
│   │   ├── LangGraph 实现自治循环代理(ReAct)及事件流的应用.ts
│   │   ├── LangGraph 长短期记忆实现机制及检查点的使用.ts
│   │   ├── o1模型详解与模型蒸馏实战.ts
│   │   ├── ChatGPT的注册与ChatGPT API充值.ts
│   │   ├── Llama 3.1&2部署微调.ts
│   │   ├── GPT4o的API基本调用、精细生成控制与多模态实操.ts
│   │   ├── LangGraph中State状态模式与LangSmith基础使用入门.ts
│   │   ├── GLM-4-Video-9b 介绍与部署流程.ts
│   │   ├── OPENAI的Streaming流式响应与API微调双实战,Claude computer use接入自己的电脑.ts
│   ├── 加餐-前沿技术追更
│   │   ├── 【加餐】05 Computer Use API 详解(5)全组件总结.ts
│   │   ├── 【加餐】03 Computer Use API 详解(3)对话函数下.ts
│   │   ├── 【加餐】08 Computer Use项目启动&实战案例.ts
│   │   ├── 【加餐】01 Computer Use API 详解(1)准备工作.ts
│   │   ├── 【加餐】04 Computer Use API 详解(4)多轮对话及tool use.ts
│   │   ├── 【加餐】07 Computer Use docker安装部署全流程.ts
│   │   ├── 【加餐】09 Computer Use源码详解.ts
│   │   ├── 【加餐】06 Computer use实战初窥.ts
│   │   ├── 【加餐】02 Computer Use API 详解(2)对话函数上.ts
├── 大模型Agent开发实战
│   ├── Ch 10.1 LangGraph中ReAct的构建原理.ts
│   ├── Ch 4.3 Thread、Messges及Run应用方法.ts
│   ├── Ch 13.5 案例:基于网络架构实现智能BI数据分析多代理系统(下).ts
│   ├── Ch 3.4 案例:从零复现ReAct Agent的完整流程.ts
│   ├── LangGraph 多代理与 GraphRAG 综合应用实战.ts
│   ├── Ch 2.4 实现具备Funcation Calling的智能电商客服.ts
│   ├── Ch 7.1 LangChain的AI Agent开发框架架构设计.ts
│   ├── 项目开发实战一:从零搭建多功能智能体 MateGen Pro(第二部分).ts
│   ├── 【MateGenPro】Ch 7 缓存池与系统初始化逻辑.ts
│   ├── Ch 6.4 如何在 Assistant API 流式传输中接入外部函数.ts
│   ├── Ch 2.2 AI Agent三种应用类型及Python实现可交互的聊天机器人.ts
│   ├── 【MateGenPro】Ch 1. MateGen Pro 项目整体架构介绍.ts
│   ├── Ch 13.2 Multi-Agent 架构分类及子图的通信模式 - 副本.ts
│   ├── 【MateGenPro】Ch 5. MateGen 数据库初始化逻辑.ts
│   ├── Ch 14.2 案例:基于 Supervisor 架构实现多代理系统.ts
│   ├── Ch 3.5 项目:基于ReAct Agent构建电商智能客服_batch.ts
│   ├── Ch 12.5 案例:具备人机交互的完整Agent信息管理系统.ts
│   ├── Ch 5.4 在Assistant和Thread定义File Search工具的四种策略.ts
│   ├── Ch 9.1 LangGraph代理架构及Router Agent介绍.ts
│   ├── Ch 2.3 Funcation Calling 完整生命周期细节复现.ts
│   ├── Ch 12.1 LangGraph知识点概述总结.ts
│   ├── Ch 4.4 Run运行时的状态转移机制.ts
│   ├── Ch 10.2 案例实操:构建复杂工具应用的ReAct自治代理.ts
│   ├── Ch 11.5 长期记忆和Store(仓库).ts
│   ├── Ch 6.3 Assistant API 流式传输中的事件流原理细节.ts
│   ├── Ch 7.3 Langgraph底层源码解析.ts
│   ├── Ch 2.6 加餐:OpenAI最新推出的结构化输出功能介绍.ts
│   ├── Ch 1.3 AI Agent爆发的根本原因.ts
│   ├── Ch 8.4 MessageGraph源码功能解析.ts
│   ├── Ch 7.4 LangGraph中如何接入大模型做问答流程.ts
│   ├── Ch 5.6 Code Interpreter(代码解释器)的应用技巧.ts
│   ├── Ch 14.1 Supervisor 架构介绍与基本构建原理.ts
│   ├── 【MateGenPro】Ch 6 API_Key接口初始化与校验.ts
│   ├── Ch 13.4 案例:基于网络架构实现智能BI数据分析多代理系统(上).ts
│   ├── Ch 3.2 提示工程到代理工程的平滑过度.ts
│   ├── Ch 10.3 LangGraph中如何使用流式输出.ts
│   ├── Ch 6.6 应用案例(2):集成外部函数方法及项目完整功能介绍.ts
│   ├── Ch 4.5 实现Run状态的轮询方法,并实现Assistant API完整链路.ts
│   ├── 大模型应用发展及Agent前沿技术趋势.MP4
│   ├── Ch 12.2 LangGraph中的HIL实现思路.ts
│   ├── Ch 8.2 使用字典类型定义状态的方法与优劣势.ts
│   ├── Ch 8.1 LangGraph中State的定义模式.ts
│   ├── Ch 1.2 大模型应用的本地知识库问答核心技术-RAG.ts
│   ├── Ch 11.3 检查点的特定实现类型-MemorySaver.ts
│   ├── Ch 9.3 结合结构化输出构建Router Agent(数据库).ts
│   ├── Ch 8.3 LangGraph状态管理中Reducer函数的使用.ts
│   ├── Ch 6.5 应用案例(1):异步构建Assistant对象的工程化代码.ts
│   ├── 【MateGenPro】Ch 8 会话管理模块表结构设计与代码讲解.ts
│   ├── Ch 10.4 LangGraph中的事件流.ts
│   ├── Ch 13.3 父、子图状态中无共同键的通信方式.ts
│   ├── 【MateGenPro】Ch 2. 本地运行MateGen Pro项目流程.ts
│   ├── Ch 7.2 LangGraph 的底层构建原理.ts
│   ├── Ch 13.1 Single-Agent 存在的局限.ts
│   ├── Ch 14.4 案例:Multi-Agent实现混合多知识库检索.ts
│   ├── Ch 5.7 基于Funcation Calling实现本地代码解释器.ts
│   ├── Ch 8.5 LangSmith基本原理与使用入门.ts
│   ├── Ch 12.4 复杂代理架构中如何添加动态断点.ts
│   ├── Ch 1.4 AI Agent 经典核心架构与 AgentExcuter.ts
│   ├── Ch 11.4 检查点的特定实现类型-SqliteSaver.ts
│   ├── Ch 12.3 标准图结构中如何添加断点.ts
│   ├── Ch 6.2 Assistant API中流式输出的开启方法.ts
│   ├── Ch 4.1 Assistant API 框架的整体介绍.ts
│   ├── Ch 5.1 Assistant API 进阶应用方法介绍.ts
│   ├── Ch 5.3 基于 Assistant API 创建在线私有知识库.ts
│   ├── Ch 5.5 如何处理Assistant API输出响应中的注释.ts
│   ├── Ch 9.4 Tool Calling Agent 中ToolNode的使用.ts
│   ├── Ch 9.5 Tool Calling Agent的完整实现案例:实时搜索与数据库集成.ts
│   ├── Ch 11.1 Agent长短期记忆认知.ts
│   ├── Ch 3.1 Funcation Calling 与 AI Agent的本质区别.ts
│   ├── Ch 2.5 Function Calling并行调用和多函数调用的应用方法.ts
│   ├── 【MateGenPro】Ch 4. SQLAlchemy原理与项目接入.ts
│   ├── 【MateGenPro】Ch 3. MateGen Pro 后端API核心模块设计.ts
│   ├── Ch 1.1 大模型应用发展与Agent前沿技术趋势.ts
│   ├── Ch 3.3 ReAct Agent框架的基础理论.ts
│   ├── Ch 6.1 为什么企业级应用必须接入流式输出.ts
│   ├── Ch 4.2 Assistant对象的创建方法.ts
│   ├── Ch 2.1 AI Agent与LLMs + RAG的本质区别.ts
│   ├── 关于课件和代码.docx
│   ├── Ch 5.2 File Search内置工具说明及文件管理.ts
│   ├── Ch 14.3 GraphRAG 基本介绍与核心架构.ts
│   ├── Ch 11.2 LangGraph的短期记忆及Checkpointer(检查点).ts
│   ├── Ch 9.2 LangGraph中可应用的三种结构化输出方法.ts
├── 在线大模型部署调用
│   ├── 【GLM】09_CogVideoX视频生成大模型.ts
│   ├── 【GPT4o】15_风格微调(下)微调作业运行与应用评估.ts
│   ├── 【Claude】07_tool use全流程讲解与wiki搜索实战.ts
│   ├── 【GLM】06_tooluse上-一次api调用的tooluse.ts
│   ├── 【Claude】09_揭秘prompt Cache提示缓存:节省成本加快响应的绝技.ts
│   ├── GLM Assistant API集成与FastAPI服务复刻实战指南.ts
│   ├── 【Claude】01_了解Claude的所有特质.MP4
│   ├── 【GPT】04_API账户充值及领取API_KEY及首次调用API.ts
│   ├── 【GLM】03_大模型API调用的消息和构建多轮对话机器人.ts
│   ├── 【Claude】10_stream函数及生成器本质讲解.ts
│   ├── 【GPT4o】06_3步的 tool use基础讲解与【实战】社交媒体情绪数据分析.ts
│   ├── 【GPT4o】11_首token时延与提示缓存原理与最佳实践.ts
│   ├── 【GPT4o】02_2个核心必需参数详解与对话消息本质剖析.ts
│   ├── 【Gemini】04_掌握原生generate_content函数多轮对话技巧.ts
│   ├── 【GLM】08_tooluse接入维基百科搜索实战.ts
│   ├── 【Claude】06_API生成定制化与提示工程实战长文档.mp4
│   ├── 【Gemini】09_提示工程之长文档实战.ts
│   ├── 【GPT4o】09_并行的函数调用与实时股票价格、历史走势绘图与分析【实战】.ts
│   ├── 【GPTo1】02_o1模型的API调用详解与总结.ts
│   ├── 【GPT4o】04_精细控制生成可选参数系列讲解.ts
│   ├── 【Gemini】02_生态体验攻略与微调实战.ts
│   ├── 【Gemini】06_API精细化控制生成之System Instruction.ts
│   ├── 【GLM】01_GLM大模型API调用介绍与领取APIKEY.ts
│   ├── 【GPTo1】06_用o1蒸馏模型实战(下).ts
│   ├── 【GPT4o】05_4o多模态图片的文本生成API调用详解.ts
│   ├── 【GPT4o】01_4o文本生成API基本讲解与调用.ts
│   ├── 【Claude】11_stream流式概念与使用方法讲解.ts
│   ├── 【GPTo1】03_通过COT制作4o-mini版本的o1模型【实战】.ts
│   ├── 【Claude】05_API多模态的最佳实践.ts
│   ├── 【Claude】03_API_KEY领取及调用.ts
│   ├── 【Claude】13_异步的API调用的讲解与实践.ts
│   ├── 【GPT4o】08_tool use 维基百科实时写作助手【实战】.ts
│   ├── 【GPT】03_虚拟信用卡开通与升级GPT_Plus会员.ts
│   ├── 【Claude】08_tool_choice与定制Json输出及tool_use大实战.ts
│   ├── 【Claude】04_API必须参数揭秘,多轮对话机器人速成指南_x264.ts
│   ├── GLM模型:流式处理的工具调用、多模态应用及模型微调实战指南.ts
│   ├── 【Gemini】05_API内置简化多轮对话的start_chat函数与ChatSessi.ts
│   ├── DSPy:斯坦福20k+星标项目 - 革命性的LLM优化框架,从评估到自动优化你的LLM系统(如RAG系统).ts
│   ├── 【GPTo1】01_o1大模型原理介绍 从4o到o1实际上发生了什么.ts
│   ├── 【Gemini】08_API精细化控制生成之Temperature与Stop Sequen.ts
│   ├── 【GPT4o】12_Streaming流式响应详解.ts
│   ├── 【GLM】07_tooluse下-两次api调用的tooluse.ts
│   ├── 【GLM】04_十分钟速通GLM的可选参数.ts
│   ├── 【Gemini】01_Gemini注册指南-最新模型免费API调用.ts
│   ├── 【GPT4o】13_函数调用中的Streaming流式响应.ts
│   ├── 【GPT4o】14_风格微调(上)创建数据集与微调作业.ts
│   ├── 【GLM】02_GLM模型API初次调用与响应解析.ts
│   ├── 【GPT】01_OPENAI的账号注册速通.ts
│   ├── 【GPTo1】05_用o1蒸馏模型实战(上).ts
│   ├── 【Gemini】03_解锁 Gemini API-开启文本生成之旅.ts
│   ├── 【GPT】02_OPEN AI官网及开发者平台使用指南.ts
│   ├── 【GPTo1】04_2种加载模型o1没有的Json结构功能与【实战】.ts
│   ├── 【GPT4o】03_多轮对话历史及面向对象多轮对话机器人实战.ts
│   ├── 【Claude】12_异步的使用原因与基本语法.ts
│   ├── 【Claude】02_Claude的注册流程.ts
│   ├── 【GPT4o】07_5步的 tool use完整的调用流程与汇总.ts
│   ├── 【Gemini】10_API精细化控制生成结构化与Json参数.ts
│   ├── 【GPT4o】10_输出生成结构化的3种方式(JSON结构化).ts
│   ├── 【Gemini】07_API精细化控制生成之generation_config与max_t.ts
│   ├── 提示工程全解指南.ts
│   ├── GLM 4 工具调用从入门到精通与CogVideoX 文本生成视频 API 全流程.ts
│   ├── 【GLM】05_GLM的stream流式响应讲解.ts
│   ├── DSPy优化器优化LLM程序.ts
├── RAG项目实战企业篇
│   ├── week_3_1_part_4_yolox + orc 识别私有PDF语料的方案实践.mp4
│   ├── week_4_1_part_5_自定义RAG评估Pipeline-ReRanker原理及实.mp4
│   ├── week_2_2_part_3_项目启动文件详细说明及流程复现.mp4
│   ├── week_3_2_part_2_RAG评估框架-TruLens实践.mp4
│   ├── week_4_1_part_1_自定义RAG评估Pipeline-构建统一的数据集格式.mp4
│   ├── week_4_1_part_2_自定义RAG评估Pipeline-构建统一的提示模板.mp4
│   ├── week_3_2_part_3_RAG评估框架-Ragas的使用及借助GLM4生成评估数据.mp4
│   ├── week_5_part_2_大模型用于特征工程及实现推荐系统的整体逻辑代码.MP4
│   ├── week_4_1_part_4_自定义RAG评估Pipeline-评估指标及评估流程实现.mp4
│   ├── week_1_2_part_3_FastAPI项目介绍.mp4
│   ├── week_2_1_part_1_本周开发任务说明.mp4
│   ├── week_2_1_part_2_Naive RAG介绍及借助LangChain实现RAG流.mp4
│   ├── week_1_2_part_2_Langchain应用框架整体介绍.mp4
│   ├── week_1_1_part_1_课程说明及大模型问答功能复现.mp4
│   ├── week_3_1_part_1_企业级RAG的构建架构和思路.mp4
│   ├── week_3_1_part_3_百万量级的wiki公有语料构建方法实践.mp4
│   ├── week_5_part_4_项目整体框架下实现基于Agent的问答流程代码实践.ts
│   ├── week_3_2_part_1_本地RAG知识库问答功能链路详解与复现.mp4
│   ├── week_5_part_1_大模型融入推荐系统一种思路_1.MP4
│   ├── week_2_1_part_3_RAG集成历史对话信息及SqlalChemy持久化存储的使.mp4
│   ├── week_5_part_3_基于Langchain实现基于ReAct的代码实践及TOT提示.MP4
│   ├── week_5_part_5_Docker介绍及借助Docker打包部署完整项目的流程.mp4
│   ├── week_4_1_part_3_自定义RAG评估Pipeline-整体逻辑实现及细节说明.mp4
│   ├── week_3_1_part_2_结合Faiss向量数据的RAG Indexing构建流程.mp4
│   ├── week_4_2_part_2_基于Serper实现系统架构下的联网实时检索功能.mp4
│   ├── week_1_2_part_1_GLM在线API调用方法.mp4
│   ├── week_1_1_part_2_本地私有化部署glm4-9b-chat模型.mp4
│   ├── week_4_2_part_1_Serper API联网检索数据预处理过程拆解.mp4
│   ├── week_1_1_part_3_调用本地启动的glm4模型的方法.mp4
│   ├── week_2_2_part_1_通用问答流程整体流程介绍及参数说明.mp4
│   ├── week_2_2_part_2_FastChat项目说明及Python多进程.mp4
├── 开源大模型部署调用
│   ├── 【ChatGLM3-6B】04_ChatGLM3-6b的多种启动方法.ts
│   ├── Marco-o1模型介绍与本地部署.ts
│   ├── 【GLM4-9B】02_安装部署流程展示.ts
│   ├── 【ChatGLM3-6B】09_LoRA原理浅析.ts
│   ├── 【GLM4-Voice】05_开源大模型比拼-排行榜介绍.ts
│   ├── Ollama最新版本启动多模态模型Llama3.2Vision全流程[Linux环境].ts
│   ├── 【GLM4-Voice】04_线上部署流程.ts
│   ├── 【Llama3.1】01_Llama家族系列模型生态介绍.ts
│   ├── 【Qwen2.5Coder&Math】07_vLLM推理Coder流程.ts
│   ├── 【Qwen2.5】06_vLLM部署与调用流程.ts
│   ├── 【Qwen2.5Coder&Math】06_Coder本地部署推理流程.ts
│   ├── 【Qwen2.5Coder&Math】03_Coder技术文章分析.ts
│   ├── 【Llama3.1】04_官网以及Ollama部署流程.ts
│   ├── 【ChatGLM3-6B】11_DeepSpeed原理浅析.ts
│   ├── 【Qwen2.5Coder&Math】01_Coder介绍.ts
│   ├── 【GLM4-Voice】02_多模态与AGI技术展望.ts
│   ├── 在Windows环境下使用Ollama启动多模态模型llama3.2Vision全流程.ts
│   ├── 【Qwen2.5】05_在Windows系统中使用Ollama框架部署流程.ts
│   ├── 【GLM4-Voice】03_本地化部署流程.ts
│   ├── 【Qwen2.5】04_Ollama框架部署流程.ts
│   ├── Ollama最新版本保姆级指南.ts
│   ├── 【GLM4-9B】01_模型基本介绍.ts
│   ├── 【GLM4-Voice】01_模型基本介绍.ts
│   ├── 【GLM4-9B】04_vLLM介绍和部署应用.ts
│   ├── 【ChatGLM3-6B】07_以ChatGLM3-6b为例的大模型更新办法.ts
│   ├── 【Llama3.1】07_LlamaFactory中文能力微调实例.ts
│   ├── 【ChatGLM3-6B】14_LangChian体系详解.ts
│   ├── 【Llama3.1】02_线上体验办法.ts
│   ├── 【Qwen2.5Coder&Math】08_Ollama推理Coder流程.ts
│   ├── 【ChatGLM3-6B】15_LangChain0.3安装部署与调用方法.ts
│   ├── 【GLM4-9B】03_多种启动方式流程展示.ts
│   ├── 【Qwen2.5】03_ModelScope线上部署办法.ts
│   ├── 【Llama3.1】05_ModelScope线上部署.ts
│   ├── 【ChatGLM3-6B】02_Ubuntu环境下ChatGLM3-6b命令行安装办法.MP4
│   ├── 【ChatGLM3-6B】10_LoRA微调实战训练.ts
│   ├── 【ChatGLM3-6B】06_Git方法简洁下载ChatGLM3-6b.ts
│   ├── Qwen2--5Coder本地部署使用全流程.ts
│   ├── 【Llama3.1】03_技术论文解读.ts
│   ├── 【Llama3.2】01_基本介绍与线上测试办法.ts
│   ├── 【GLM4-9B】05_WSL部署流程.ts
│   ├── 【Qwen2.5】02_ModelScope本地化部署流程.ts
│   ├── 【Llama3.2】02_官网下载流程.ts
│   ├── Qwen2VL多模态模型参数介绍&部署使用全流程.ts
│   ├── 【Llama3.1】06_ModelScope本地部署.ts
│   ├── 【ChatGLM3-6B】03_服务器环境下部署ChatGLM3-6b.ts
│   ├── 【Llama3.2】03_Ollama在Linux和Windows部署方法.ts
│   ├── 【ChatGLM3-6B】05_AutoDL快速部署ChatGLM3-6b办法.ts
│   ├── 【Qwen2.5Coder&Math】04_Math技术文章分析.ts
│   ├── Qwen2--5Coder:32B基本介绍和测试.ts
│   ├── 【ChatGLM3-6B】08_单机多卡启动大模型办法.ts
│   ├── 【Qwen2.5】01_基本介绍与线上体验办法.ts
│   ├── 【Qwen2.5Coder&Math】02_Math介绍.ts
│   ├── 【Qwen2.5Coder&Math】10_Math部署流程.ts
│   ├── 【ChatGLM3-6B】01_Ubuntu双系统安装.MP4
│   ├── 【ChatGLM3-6B】12_PEFT高效微调原理浅析.ts
│   ├── 【ChatGLM3-6B】13_P-Tuning V2微调实战.ts
│   ├── 【Qwen2.5Coder&Math】09_线上部署推理Coder流程.ts
│   ├── Glm-Edge-v-5B模型介绍与本地部署.ts
│   ├── 【Qwen2.5Coder&Math】05_Math线上体验.ts
│   ├── Cursor&Coder高效低代码开发办法.ts
├── 大模型微调实战
│   ├── Ch 6.4 奖励模型训练流程.ts
│   ├── Ch 5.4 PPO模型与数据的选择.ts
│   ├── Ch 6.2 RLHF流程拆解与核心.ts
│   ├── Ch 4.1 win&Qlora&qwen2.5_Qlora能节约多少内存.ts
│   ├── Ch 3.3 模型微调及参数详解.ts
│   ├── Ch 5.6 PPO源码解读.ts
│   ├── DPO微调Qwen2.5.ts
│   ├── Ch 4.2 Qlora核心概念.ts
│   ├── Ch 4.3如何在windows配置环境.ts
│   ├── Ch 1.2 微调与其他技术的区别和关联.ts
│   ├── Ch 5.5 PPO微调实操.ts
│   ├── window系统微调QLORA.ts
│   ├── Ch 5.2 如何理解PPO.ts
│   ├── Ch 6.5 RLHF全流程微调.ts
│   ├── Ch 3.1 如何获取数据源及使用解析.ts
│   ├── Ch 6.3 奖励模型原理.ts
│   ├── Ch 2.5 配置TensorBoard.ts
│   ├── Ch 5.3 各个模型PPO算法的协作关系.ts
│   ├── Ch 1.4 高效微调及范围.ts
│   ├── Ch 2.2 LLama_factory 介绍.ts
│   ├── Ch 1.5 强化学习RHLF介绍.ts
│   ├── Ch 1.6 主流微调框架.ts
│   ├── Ch 1.3 微调步骤及技术栈.ts
│   ├── Ch 2.3 LLama_factory 安装部署及验证.ts
│   ├── Ch 3.4 数据验证&deepspeed微调.ts
│   ├── Ch 2.4 实战Qwen2.5微调.ts
│   ├── LLama_factory&Lora微调Qwen2.5做NL2sql.ts
│   ├── Ch 6.6 RLHF挑战与改进方向.ts
│   ├── Ch 5.1PPO&llama3.2_什么是PPO算法.ts
│   ├── Ch 1.1 通用模型发展与微调前景.ts
│   ├── Ch 2.1 Lora原理详解.ts
│   ├── Ch 3.2 llamafactory中如何使用和注册数据集.ts
│   ├── Ch 6.1 RLHF&Qwen2.5,RLHF背景与意义.ts
│   ├── Ch 4.4 Qlor微调实战与验证.ts
│   ├── LLama_Factory+LORA大模型微调.ts
│   ├── PPO微调Llama-3.2.ts

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。