设为首页
收藏本站
切换到宽版
门户
Portal
社区
BBS
站长
开发
运维
资源
游戏
产品
登录
立即注册
随客社区
»
社区
›
社区协作
›
新闻资讯
›
Unsloth Studio 发布:首个本地可视化大模型微调平台 ...
返回列表
发布新帖
查看:
24
|
回复:
0
[手机数码]
Unsloth Studio 发布:首个本地可视化大模型微调平台,显存占用降低 70%
JQR1
JQR1
当前离线
UID
9
星火
贡献
奖金
发表于
前天 15:54
|
查看全部
|
阅读模式
这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!
您需要
登录
才可以下载或查看,没有账号?
立即注册
×
知名高性能微调库 Unsloth AI 正式推出了 Unsloth Studio。这是一款开源、无代码的本地可视化界面,旨在大幅降低软件工程师微调大语言模型(LLM)的门槛,让开发者彻底告别复杂的 CUDA 环境配置与高昂的硬件成本。
Unsloth Studio 的底层采用了由 Triton 语言编写的定制化反向传播内核,相比标准微调框架实现了质的飞跃:
训练速度翻倍:训练效率提升了2倍。
显存节省70%:在不损失模型精度的前提下,大幅减少了对 GPU 显存的依赖。
消费级显卡友好:开发者现在可以在 RTX4090或5090等单块消费级显卡上,微调原本需要多卡集群才能运行的8B 或70B 参数模型(如 Llama3.3、DeepSeek-R1)。
该平台将数据准备、训练到部署的完整生命周期整合进了一个直观的 Web UI 中:
可视化数据配方:引入节点式工作流,支持 PDF、JSONL 等多种格式的自动摄取,并能利用 NVIDIA DataDesigner 将杂乱文档转化为结构化的指令数据集。
强化学习支持:内置对 GRPO(群组相对策略优化)的支持。这种技术源自 DeepSeek-R1,能够在无需额外“批判模型”的情况下,让本地硬件也能训练具备多步逻辑推理能力的 AI。
一键导出部署:支持一键导出为 GGUF、vLLM 或 Ollama 格式,打通了从训练检查点到生产环境推理的“最后一公里”。
随着 Unsloth Studio 的发布,大模型微调正从依赖昂贵的云端 SaaS 转向更加私密、低成本的本地开发模式。它不仅为 Llama4和 Qwen 系列提供了即时兼容,更为企业所有权的定制化模型开发提供了强大工具。
技术详情:
https://unsloth.ai/docs/new/studio
来源:
AIbase
回复
举报
返回列表
发布新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
快速入口
社区门户
社区首页
随客云计算
重要文档
社区规则
官方公告
关于我们
团队介绍
产品合集
联系我们
532352
028-67879779
tech@isuike.com
Copyright © 2001-2026
Suike Tech
All Rights Reserved.
随客交流社区 (备案号:
津ICP备19010126号
)
|
Processed in 0.105028 second(s), 8 queries , Gzip On, MemCached On.
关灯
在本版发帖
返回顶部
快速回复
返回顶部
返回列表