博客文章

9 篇文章

DA
DealiAxy

用本地大模型驱动中文输入法,我做了一个实验性的项目

一个拿350MB小模型给输入法做语境排序的实验,思路倒是比那些堆参数的玩意儿清醒。不过老哥,先用着Web版就别急着吹原生输入法框架,等你能把打字延迟压到100ms以下再说。

LLM
AI
前端
+4
04-30
2026-05-09
3984
LLM
DA
DealiAxy

LLM探索:离线部署Ollama和one-api服务

离线部署Ollama?手动下载上传,导入模型文件,啧,麻烦。one-api用Docker,tiktoken需下载重命名,更烦。添加渠道?简单。

LLM
AI
前端
+4
02-18
2026-05-09
8171
LLM
DA
DealiAxy

LLM探索:大模型背后的向量魔法,Embedding技术初探

Embedding技术从Word Embedding发展到动态预训练模型,无处不在,但本文只是过时的基础。LLM时代,向量魔法如此关键,作者却拖更太久,内容早该更新了。

LLM
AI
前端
+4
02-07
2026-05-09
9414
LLM
DA
DealiAxy

LLM探索:使用DeepSeek免费平替cursor

Cursor太贵?DeepSeek+Cline勉强能用,但token烧得比我还快。生成的代码bug一堆,还不如自己敲。32k上下文调整后总算不报错,效果嘛,也就那样。

LLM
AI
前端
+4
01-31
2026-05-09
9281
LLM
DA
DealiAxy

LLM探索:DeepSeek火爆全网,官网宕机?本地部署一个随便玩

DeepSeek官网又崩?本地部署14b模型,web界面倒还凑合。国产大模型热度高,服务器不行就自己搭,呵。代码能力待验证,反正比官网强。

LLM
AI
前端
+4
01-30
2026-05-09
6354
LLM
DA
DealiAxy

LLM探索:为ChatGLM2的gRPC后端增加连续对话功能

给ChatGLM2的gRPC后端硬塞了连续对话功能,改了proto、C#客户端和Python服务端代码。OpenAI格式转ChatGLM格式?真够折腾的,幸好有loguru。搞定了,但调试gRPC还是麻烦,考虑改OpenAI接口了。

LLM
AI
前端
+4
10-19
2026-05-09
6060
LLM
DA
DealiAxy

LLM探索:GPT类模型的几个常用参数 Top-k, Top-p, Temperature

A recent breakthrough in artificial intelligence (AI) is the introduction of language processing technologies that enable us to build more intelligent systems with a richer understanding of language than ever before. Large pre-trained Transformer language models, or simply large language models, vastly extend the capabilities of what systems are able to do with text.

LLM
AI
前端
+4
05-25
2026-05-09
2935
LLM
DA
DealiAxy

LLM探索:环境搭建与模型本地部署

又来折腾LLM本地部署?ChatGLM-6B在6GB显存下就能跑,MOSS却要显存翻倍,这差距。硬件要求高得离谱,但作者硬是在Ubuntu上搞定,佩服?开源LLM本地部署指南,就这?

LLM
AI
前端
+4
05-20
2026-05-09
2408
LLM
DA
DealiAxy

ChatGLM-6B本地部署

下载项目代码 git clone https://github.com/THUDM/ChatGLM-6B.git 创建虚拟环境,建议使用 conda 管理 conda create -n chatglm python==3.8 安装依赖 conda activate chatglm pip install -r requirements.txt conda install cudatoolkit=

LLM
AI
前端
+4
04-23
2026-05-09
1332
LLM