更新 README.md

This commit is contained in:
8ga
2026-04-15 11:10:18 +08:00
parent bac35f1c1f
commit 98ce080324

View File

@@ -14,51 +14,33 @@
| 消息队列 | 熟练 | RocketMQ、Kafka普通消息广播消费、点对点消费、定时消息、顺序消息、事务消息 | | 消息队列 | 熟练 | RocketMQ、Kafka普通消息广播消费、点对点消费、定时消息、顺序消息、事务消息 |
| Spring | 熟练 | AOP、JDK动态代理、Cglib、ByteBuddy、SPI、Starter、服务注册/发现、配置中心、限流、熔断、RPC、分布式事务、事件驱动模型 | | Spring | 熟练 | AOP、JDK动态代理、Cglib、ByteBuddy、SPI、Starter、服务注册/发现、配置中心、限流、熔断、RPC、分布式事务、事件驱动模型 |
| OpenJDK | 熟悉 | 时刻关注重要 JEP 动态。Loom虚拟线程、结构化并发LeydenAOTValhallavalue classBabylon代码反射PanamaFFM、Memory API| | OpenJDK | 熟悉 | 时刻关注重要 JEP 动态。Loom虚拟线程、结构化并发LeydenAOTValhallavalue classBabylon代码反射PanamaFFM、Memory API|
| 运维 | 熟练 | Linux、Nginx、Docker | | 运维 | 熟练 | Linux、Nginx、Docker、K8s |
| 监控 & 排障 | 熟练 | Spring Boot Actuator、OTel、Prometheus、Grafana、ELK、Arthas、JFR | | 监控 & 排障 | 熟练 | Spring Boot Actuator、OTel、Prometheus、Grafana、ELK、Arthas、JFR |
| 推理引擎 | 熟悉 | vLLM、llama.cpp、Ollama、GPUStack、Xinference | | 推理引擎 | 熟悉 | vLLM、llama.cpp、Ollama、GPUStack、Xinference |
| AI Agent | 熟练 | Spring AI、AgentScope、AutoGen、CrewAI、LangChain、LangGraph、Milvus、RAG、MCP、Skill、Sandbox | | AI Agent | 熟练 | Spring AI、AgentScope、AutoGen、CrewAI、LangChain、LangGraph、Milvus、RAG、MCP、Skill、Sandbox |
# 工作经历 # 工作经历
| 公司名称 | 入职日期 | 离职日期 | 所在地 | | 公司名称 | 职位 |入职日期 | 离职日期 | 所在地 |
|:-----|:-----|:-----|:-----| |:-----|:-----|:-----|:-----|:-----|
| 上海企顺信息科技有限公司 | 2025/09 | 至今 | 合肥 | | 上海企顺信息科技有限公司 | Java 开发 | 2025/09 | 至今 | 合肥 |
| 合肥统旭智慧科技有限公司 | 2025/04 | 2025/07 | 合肥 | | 合肥统旭智慧科技有限公司 | Java 开发、运维 | 2025/04 | 2025/07 | 合肥 |
| 极氪智能科技 | 2023/07 | 2025/03 | 杭州 | | 极氪智能科技 | Java 开发 | 2023/07 | 2025/03 | 杭州 |
| 江苏普飞科特信息科技有限公司 | 2019/07 | 2023/05 | 成都 | | 江苏普飞科特信息科技有限公司 | 开发组长 | 2019/07 | 2023/05 | 成都 |
| 上海柏维信息技术有限公司 | 2017/05 | 2019/06 | 上海 | | 上海柏维信息技术有限公司 | Java 开发 | 2017/05 | 2019/06 | 上海 |
# 项目经验 # 项目经验
## AI引擎2025/09 ~ 至今) ## AI Engine2025/09 ~ 至今)
一个全链路大模型服务与智能体开发平台,一站式构建、训练、部署全流程解决方案,高效打造智能化应用,推动业务增长和智能化转型。 - 技术栈Spring Cloud、Nacos、RocketMQ、Spring AI、Spring AI Alibaba、AgentScope、Milvus、NewAPI
- 模型Qwen 2.5、Qwen 3.5、gpt-oss-120b、bge-m3、bge-reranker-v2-m3
- 工作内容:通过 New API 统一管理本地化部署的 LLM项目中通过 New API 提供的 OpenAI API 兼容端点接入。在 k8s 集群中使用 Helm 部署 Milvus项目中使用 Spring AI 提供的 VectorStore 接入向量存储服务涵盖密集、稀疏、混合、全文基于BM25检索。本地化部署 searxng 服务,为 AI Agent 提供 WebSearch 能力。基于 Workflow 和 Agent AS Tool 两种方案编排 AI Agent 与 Multi Agent。基于 Ubuntu24.04 镜像构建涵盖 Python、Node.js、Java 三种语言代码执行环境的容器,暴露 MCP Server 与 HTTP 端点,方便 AI Agent 以 Tool 的方式接入,安全、便捷的执行 Skills 中的脚本。协助其他同事解决调试过程中遇到的各种问题,以及代码层面与架构层面的优化工作。
- 职位Java 开发 ## AI 数字人2025/04 ~ 2025/07
- 技术栈Spring Cloud、Nacos、RocketMQ、Spring AI、Spring AI Alibaba、AgentScope、Milvus、newapi
- 推理引擎vLLM
- 开源模型Qwen 2.5、Qwen 3.5、gpt-oss-120b
- 工作内容:
- 跟进大语言模型开源社区技术框架最新发展动向,并引入到项目中
- 通过 AgentScope 适配 Agent AS Tool 提供通用的 Multi Agent 编排任意组合的 Agent
- 在单独的服务器与 docker 环境配置代码执行的沙箱环境,提供 mcp server 与 http api 端点,让 agent 可以通过 mcp 客户端或 http 调用的方式将脚本卸载到沙箱执行
## 数字人2025/04 ~ 2025/07
基于语音交互ASR+TTS结合LLM以及私域知识库实现问答和聊天服务。
- 职位Java开发
- 技术栈Spring AI、JAVA 21、Ollama、百炼大模型 - 技术栈Spring AI、JAVA 21、Ollama、百炼大模型
- 工作内容: - 工作内容:采购显卡、及其它配件并组装 GPU 服务器,安装操作系统和 Docker。配置 Nvidia 显卡驱动、Nvidia Container Toolkit、为 Docker 添加 GPU 运行环境。使用 Ollama 部署 Qwen3-8B、Qwen2.5-14b 模型,使用 GPUStack 部署 bge-m3、bce-reranker-base-v1 模型。使用 Docker 部署 Fun ASR、ChatTTS 模型。部署 ES 作为向量数据库使用,在项目中用 Spring AI 整合 LLM 和 ES实现一个私域知识库聊天问答服务。协助安卓开发小伙伴做数字人技术方案选型并解决相关问题。
- 购买显卡组装主机,安装 Ubuntu 和 Docker
- 安装 Nvidia 显卡驱动、Nvidia Container Toolkit、为 Docker 添加 GPU 运行环境
- 部署聊天模型Ollama + Qwen3:8B
- 部署嵌入模型GPUStack + bge-m3Xinference 每次重启无法重新拉起模型所以选择了GPUStack
- 部署重排序模型GPUStack + bce-reranker-base-v1
- 部署向量数据库Elasticsearch
- 使用 Spring AI 框架整合LLM和ES通过 Prompt 和 RAG 实现一个私域知识库聊天和问答服务
- 配合安卓开发做技术选型如ASR和TTS以及数字人
## 整车集成开发平台2023/07 ~ 2025/03 ## 整车集成开发平台2023/07 ~ 2025/03