首页
热点
百科
娱乐
科技
资讯
药品
美容
时尚
登录
标签
Ollama
HASHIRU团队:多智能体如何优化资源调配?
它们的特点是专业化(针对特定任务类型如代码、数据分析、信息检索等定制能力)、动态存在(根据需要表现由CEO创建销毁)、任务执行(接收任务、执行、返回结果)和资源消耗(系统追踪相关成本如API、硬件利用率)…
Ollama
团队
模型
Pai
管理
fjmyhfvclm
4天前
19
0
金士顿KC3000 4TB SSD实战Deepseek部署测试
金士顿KC3000从512GB到4096GB总共4种容量型号,全系采用群联Phison E18旗舰级主控,读写最高可达7GBs和7GBs,4K随机读写同时突破百万大关,其中本文的这款型号就是KC3000…
用户
知识库
LMStudio
Ollama
模型
fjmyhfvclm
3月前
44
0
DeepSeek等大模型私有化服务器部署近九成在“裸奔”!企业本地部署DeepSeek的安全风险与等保合规的必要性
本文将从安全威胁的角度切入,详细分析企业本地部署DeepSeek可能面临的主要安全风险,并探讨信息安全等级保护(简称“等保”)在风险防控中的关键作用。 建议企业在DeepSeek部署初期就引入等保合规服务,…
企业
数据
技术
DeepSeek
Ollama
fjmyhfvclm
3月前
36
0
国家网络安全通报中心:大模型工具Ollama存在安全风险
人民财讯3月3日电,国家网络安全通报中心发布关于大模型工具Ollama存在安全风险的情况通报,据清华大学网络空间测绘联合研究中心分析,开源跨平台大模型工具Ollama默认配置存在未授权访问与模型窃取等安全隐患…
用户
配置
Ollama
模型
服务
fjmyhfvclm
3月前
39
0
2025年DeepSeek完全实用手册V1.0-从技术原理到使用技巧
本文是一份关于DeepSeek模型的完全实用手册,由至顶科技出品,旨在全面介绍DeepSeek模型的技术原理、调用部署方式、使用技巧以及未来趋势。 DeepSeek凭借其技术创新、低训练与推理成本以及开源策…
代码生成
推理
技术
DeepSeek
Ollama
fjmyhfvclm
3月前
62
0
DeepSeek模型本地部署与应用构建-智灵动力
以DeepSeek R1 671B完整版本部署为例,需从HuggingFace下载模型文件,安装ollama并创建Modelfile文件等。4. 应用场景解析:个人用户利用DeepSeek提升工作效率与创造…
DeepSeek
性能需求
Ollama
智灵
模型
fjmyhfvclm
3月前
59
0
个人电脑部署DeepSeek,该走的“路”,该避的“坑”,看这里
最低1080显卡“起跑”流畅用至少30系显卡DeepSeek官方文档显示,本地部署DeepSeek大模型需严格遵循“显存——内存——存储”三级资源匹配原则。 实测 旧电脑也能跑经过众多技术爱好者和专业人士…
DeepSeek
硬件
Bit
Ollama
显存
fjmyhfvclm
3月前
82
0
昆仑万维旗下Opera接入DeepSeek R1模型
首先,用户需要下载并更新到最新版本的Opera Developer,打开浏览器并点击左侧边栏中的Aria标识,进入Aria界面后点击左上角的徽标展开聊天历史记录。在搜索框中输入“deepseek”,选择并下载…
用户
技术
DeepSeek
浏览器
Ollama
fjmyhfvclm
3月前
66
0
奇安信:DeepSeek等大模型私有化服务九成在“裸奔”
北京商报讯(记者 魏蔚)2月14日,奇安信资产测绘鹰图平台监测发现,8971个Ollama大模型服务器中,有6449个活跃服务器,其中88.9%都“裸奔”在互联网上,导致任何人不需要任何认证即可随意调用、在未…
测绘
安信
DeepSeek
Ollama
模型
fjmyhfvclm
4月前
81
0
DeepSeek-70B手把手部署指南!断网也能轻松装,超实用!
2025大年初一的时候我曾发了一篇如何在本地部署DeepSeek大模型的流程教程,意外的获得了超多的点击和收藏,也了解到了许多用户遇到的问题,经过一段时间的使用,我发现蒸馏过的32b DeepSeek用起来…
DeepSeek
命令行
电脑
硬盘
Ollama
fjmyhfvclm
4月前
81
0
Ollama下载安装全攻略保姆级下载教程分享指南
启动海豚网络优化工具首先,使用网络优化工具,来优化网络环境,例如:海~豚~,搜索并优化【deepseek】,系统会自动显示与 Ollama相关的下载选项。 通过一键下载,您可以轻松获取并安装最新版本的Ol…
显示
用户
Ollama
过程
工具
fjmyhfvclm
4月前
94
0
离线免费用 Deepseek本地傻瓜式安装部署流程
目前手机端app虽然能用,但网络和服务端过载,用起来还是很吃力的,况且在线版的还会有很多限制,在高强度使用时肯定是不如本地部署的离线版的。克隆代码仓库 部署大模型接着,我们可以在Ollama的官网直接打开d…
命令行
官网
傻瓜式
Ollama
模型
fjmyhfvclm
4月前
119
0