大模型部署框架 FastLLM 实现细节解析 0x0. 前言 接着 大模型部署框架 FastLLM 简要解析 这篇文章首先梳理了一下FastLLM的调用链和关键的数据结构,然后解析了 FastLLM 的一些实现细节和CPU/GPU后端实现采用的优化技巧。 0x1. 调用链和数据结构解析 以chatglm-6b的支持为例,函数入口在 htt... 2023-09-19 Read More
Langchain-Chatchat + 阿里通义千问Qwen 保姆级教程 | 次世代知识管理解决方案 从ChatGPT出圈也快一年了,中文大模型也是一个百花齐放的态势, 如果你现在问我中文大语言模型及相关生态发展到了什么地步了。我想上面那段北岛的诗句就是一个很好的《回答》。 中文LLM生态观察 模型 就开源的部分而言,从一开始的MOSS[1] ChatGLM[2] ChatGLM2 [3] 到... 2023-09-19 Read More
万字保姆级教程!Stable Diffusion完整入门指南 码字不易,SD 保姆教程,从原理功能到案例输出展示,最后简述 ControlNet 的使用技巧,图文约 1 万 5 千字左右,阅读时长约 20 分钟~ Stable Diffusion 的基本介绍 首先官方给出的解释是: 这和 MJ 有什么区别 为了更方便的理解我们将 Stable ... 2023-09-06 Read More
Profile Picture AI |用AI创建个人资料照片 Profile Picture AI 一款使用AI给你个人或者宠物创建资料照片的工具,这个在国外比较流行,你可以把创建的资料图片打印出来,然后印在衣服或者枕头等其他地方,特别彰显个性 网址:https://www.profilepicture.ai/ 网站语言:英语 费用:付费 Crea... 2023-08-23 Read More
Server-Sent Events 教程 一、SSE 的本质 严格地说,HTTP 协议无法做到服务器主动推送信息。但是,有一种变通方法,就是服务器向客户端声明,接下来要发送的是流信息(streaming)。 也就是说,发送的不是一次性的数据包,而是一个数据流,会连续不断地发送过来。这时,客户端不会关闭连接,会一直等着服务器发过来的新的数... 2023-08-22 Read More
ChatGPT流式输出效果的实现原理 在使用ChatGPT时,模型的回复内容是一个字一个字蹦出来的,而不是整段话直接出现,因为模型需要不断预测接下来要回复什么内容,如果等整段回复生成之后再输出到网页,用户体验就会很差,一直以为这种流式输出效果是用WebSocket实现的,后来接入open ai接口,发现接口是http协议,才了解到SSE... 2023-08-22 Read More
ChatGPT指令百科全书:1000条ChatGPT 指令,一次性全给你! 这是一位,国外博主@哈桑 整理的,1000条ChatGPT实用指令,涵盖目前几乎所有的,主流提示需求。 全文超过40000字。 我把它们翻译成更适合大家理解的「中文版Prompt」,并根据具体的内容,拆解成一二级目录,以方便大家查阅使用。 单单排版就差不多花费1个小时。 希望能让大家在使用 ... 2023-08-22 Read More
了解如何使用 GPT-35-Turbo 和 GPT-4 模型 GPT-35-Turbo 和 GPT-4 模型是针对对话接口进行了优化的语言模型。 该模型的行为与旧的 GPT-3 模型不同。 以前的模型是文本输入和文本输出,这意味着它们接受了提示字符串并返回了一个会追加到提示的补全。 不过,GPT-35-Turbo 和 GPT-4 模型都是输入对话和输出消息模式... 2023-08-16 Read More
ChatGPT重大更新 -GPT 3.5 turbo 16K模型于6月15号发布 6月15日,OpenAI宣布了ChatGPT的重大更新,推出了全新的GPT 3.5 turbo 16K模型。这一更新为ChatGPT带来了许多令人兴奋的新功能,其中最引人注目的是新增的函数调用功能。 GPT 3.5 turbo 16K模型的发布标志着OpenAI在自然语言处理领域的又一次突破。相比... 2023-08-16 Read More
GPT-4 vs GPT-3.5-Turbo的区别 首先,咱们来看看GPT-4和GPT-3.5-Turbo之间最重大的差异,这些差异可能会从模型使用和API使用的角度影响ChatGPT的开发。然后我们会用几个Python示例来演示如何通过Python的openai库访问GPT-4 API。 GPT-4 新的GPT-... 2023-08-16 Read More