当前位置:首页 » 行业资讯 » 周边资讯 » 正文

从头开始构建云服务器:全面的技术指南 (从头开始构建大型语言模型 pdf)

监控您可以使用各种工具来监控服务器性能。这将帮助您识别和解决任何问题。以下是用于监控服务器的常见工具:CloudWatch(AWS)Azure Monitor(Azure)Stackdriver(GCP)故障排除服务器问题不可避免。当您遇到问题时,可以使用以下步骤进行故障排除:1. 检查日志文件。2. 使用命令行工具。3. 联系云平台支持。

结论

通过遵循本指南,您可以从头开始构建和管理云服务器。云服务器提供了一种经济高效且可扩展的方式来托管您的应用程序和网站。如果您有任何问题或需要进一步的帮助,请随时联系云平台支持。


OpenLLM大模型统一访问平台

OpenLLM是一个用于在生产中操作大型语言模型(LLM)的开放平台,旨在简化大型语言模型的微调、服务、部署以及监控流程。

借助OpenLLM,用户能够使用任何开源大语言模型执行推理,轻松部署到云端或本地,并构建强大的AI应用程序。

要开始使用OpenLLM,首先确保系统上安装了Python 3.8或更高版本以及pip。

强烈建议使用虚拟环境以防止包冲突。

通过pip安装OpenLLM后,可以通过运行`openllm start`命令启动LLM服务器。

例如,为了启动OPT服务器,可以执行相应的操作。

之后,可以通过访问访问Web UI,在此可以试验访问端点和示例输入提示。

OpenLLM提供内置的Python客户端,允许用户与模型进行交互。

在不同的终端窗口或Jupyter Notebook中创建客户端以开始与模型互动。

同时,使用`openllm query`命令可以从终端查询模型。

访问了解OpenLLM的API规范。

OpenLLM支持多种模型及其变体,用户可以根据需要指定要服务的模型变体,如通过提供`–model-id`参数。

平台无缝支持所有模型及其量化权重,只要能够加载模型架构即可。

要查看OpenLLM支持的模型及其变体列表,可以使用`openllm models`命令。

以下是OpenLLM支持的部分模型及其详细信息:

通过使用OpenLLM,用户能够轻松管理和部署多种大型语言模型,构建高效的AI应用程序。

使用全套开源工具构建 LLM 应用实战:在 Dify 调用 Baichuan 开源模型能力

在当前开源大语言模型的热潮中,许多开发者希望本地部署开源LLM(大型语言模型),用于研究LLM或构建基于开源LLM的应用。

笔者也尝试通过开源社区的项目,本地部署服务构建自己的LLM应用。

那么,本地部署开源LLM构建聊天应用需要哪些准备呢?本文将详细介绍步骤与工具,包括本地环境准备、大型语言模型、推理服务以及使用开源平台快速构建应用。

本地环境的准备:

为了部署高性能的开源大模型,需要一台配备高性能大显存NVIDIA显卡、大容量高速内存和大容量固态硬盘的本地机器。

以Baichuan-chat-13B模型为例,建议配置为:i9-K CPU、GTX3090双卡、64GB内存和2TB固态硬盘。

大型语言模型:

大型语言模型是构建应用的基础,不同模型根据预训练数据和任务目标的不同,其结构和知识学习也不同。

在Hugging Face等热门AI社区,可以寻找感兴趣的开源LLMs进行尝试和能力对比。

本地部署推理服务:

推理服务将预训练模型加载至本地服务器,提供模型预测接口,支持本地化使用LLM进行NLP任务,无需依赖云服务。

使用GitHub上的一流开源项目,如LocalAI、openLLM等,一键部署热门开源模型。

:“LLM操作系统”:

使用开源平台,构建基于不同LLM能力的AI应用变得简单。

Dify支持快速调用和切换开源模型,包括托管在HuggingFace和Replicate上的所有模型,支持本地部署,通过Xorbits inference推理服务构建AI应用。

以下为实操步骤,从零开始介绍环境配置、安装CUDA、WSL2准备、Docker部署等。

环境准备:

基本的conda和Python环境推荐使用conda管理。

首先安装conda,初始化Python3.11环境。

安装CUDA,推荐从官网直接下载Windows 11版本。

WSL2环境准备,安装Ubuntu版本并配置代理脚本。

安装Docker Desktop,选择使用WSL2,确保WLS和Docker正常运行。

配置WSL,安装WSL的CUDA,安装PyTorch。

部署推理服务Xinference:

根据Dify部署文档,Xinference支持多种大型语言模型。

选择Xinference部署Baichuan-chat-3B模型。

在WSL中安装Xinference基础依赖,并配置模型。

启动Xinference并下载部署模型。

使用Xinference管理模型查看已部署模型的uid。

部署:

参考Dify官网部署文档,CloneDify源代码,启动Dify,检查容器运行状态。

在浏览器访问部署结果。

接入Xinference配置模型供应商:

在Dify设置中填入Xinference模型信息,注意SeverUrl使用局域网IP,获取WSL的IP地址。

配置Baichuan-chat模型,创建应用。

后记:

本地部署结合,快速构建基于开源LLM的AI应用成为可能。

通过持续迭代和优化,提升应用性能。

Dify提供了一个完整的LLM应用技术栈,简化了构建和管理过程,支持数据清洗、标注等服务。

LLM应用的场景和能力将进一步丰富,门槛降低。

nodejs云服务器搭建(nodejs写服务器)

使用云服务器搭建专属博客

首先,推荐一个免费的云服务器提供商,三丰云,有了云服务器,我们使用帆模ssh连接云服务器。

下面我们进入构建博客的第一步:安装Git和NodeJs,网上一堆教程,这里就不在赘述了。

第二步,安装Hexo:

npminstall-ghexo

?初始化Hexo:

cd/work/Hexo

第团岩三步,获取博客塌轿御主题:

gitclonethemes/even

参考链接:

怎么在阿里云服务器里使用nodejs环境

首次登录云服务器,要先进行用户设置。

用户设置

首先用passwd命令修改超级管理员root密码。

根据提示连续输入两次密码,很简单吧。

接着,要新建一个普通的管理账号并设置密码,用于日常的系统管理。

$useradduser1

$passwduser1

将用户添加进管理组,以便于统一管理管理员的权限。

$usermod-a-Gwheeluser1

设穗野置新用户的sudo权限。

执行visudo命令实际上编辑的是/etc/sudoers文件。找到rootALL=(ALL:ALL)ALL这行,并下面添加一行

user1ALL=(ALL:ALL)ALL

保存退出,以后就可用用sudo命令执行管理操作了。

修改主机名

每台服务器都有自己的名字,一般web服务器会用网站的域名来做主机名。[用户名@主机名~]$

$vi/etc/sysconfig/network

保存,并退出编辑,下次等登入服务器就能看到修改的主机名字了。

SSH配置

将ssh的端口22改掉,另外,禁止root通过ssh登录服务器,并允许新建的普通管理员登录。

$vi/etc/ssh/sshd_config

找到#Port22,去掉#并将22修改为1025到之间的没被用到的端口号。

找到下面一行,并去掉注释符。

#PermitRootLoginyes

在配誉搏置文件里添加

AllowUsersuser1

保存后,退出文件编辑。重启sshd

$servicesshdrestart

下次登录,就要用新设定的端口号登录了。

$sshuser1@ip-pport

挂载数据盘

为数据盘建立交换分区和普通分区,并挂载到系统。首先查看查看数据盘

确认数据盘为/dev/xvdb接着,对数据盘进行分区操作,

$fdisk-S56/dev/xvdb

输入m可以查看帮助。

这里直接键入n新建第一个扩展分区,接着输入p建立立基本分区,输入要建立的分区号1,起始簇保持默认,结束簇的位置输入+2G(一般扩展分区的大小为内存的两倍)。

然后,重复上面的步骤,将剩下的分为数据盘,注意庆族祥第二个分区的分区号为2。

格式化分区

$mkswap/dev/xvdb1

$4/dev/xvdb2

启用swap分区

$swapon/dev/xvdb1

将数据盘的第二个分区,挂载到新建的/data目录。

$mkdir/data

修改fstab文件,保证重启系统后自动挂载。

$vi/etc/fstab

添加

/dev/xvdb1swapswapdefaults00

/dev/xvdb2/dataext4defaults00

保存文件,并退出编辑,下次启动系统就能自动挂载数据盘了。

执行挂载命令,可以立即看到挂载的硬盘。

软件安装NginxMongoNode

我习惯于多个node进程共享80端口,用nginx反向代理到不同的node服务上去。

安装nginx。

新建yum仓库配置文件。

$vi/etc/.d/

内容如下:

name=nginxrepo

gpgcheck=0

保存文件,并退出编辑。

执行.

$yuminstallnginx

安装mongodb

$vi/etc/.d/

文件内容

name=MongoDBRepository

gpgcheck=0

保存文件,并退出编辑。

执行

$yuminstallmongodb-org

安装Node和NPM

$sudoyuminstallnodejsnpm

至此,服务器环境就搭建好了。

如何在服务器上搭建nodejs

先确认下系统环境合不合要求

Python-V(确认python版本大于2.6)

访问下载需要的版本(wget

解压

进入目录cdnode-v0.10.26-linux-x64

./configure–prefix=/home/work/setups/node-v0.10.26

sudomakeinstall

添加到系键知迅统环境echoexportPATH=$PATH:/home/work/setups/node-v0.10.26/bin猛没

~/_profile

.~/_profile执行该文件更新$PATH变量

###安装Express

sudonpminstallexpress

-gdg参数:把express安装到NodeJS的lib目录d参数:同时安装依赖模块包

sudonpminstallforever-gd

(异常情况:

如果遇到npm找不到的情况确认sudonode-v是否找不到找不到的话:需要added/usr/local/bintosecure_pathin/etc/sudoers:

sudovisudo

把Defaultssecure_path=

/sbin:/bin:/usr/sbin:/usr/bin这行改为Defaultssecure_path=/sbin:/bin:/usr/sbin:/usr/bin:/usr/local/bin然后:x保存退出

如果遇到

npmERR!Error:Hostname/IPdoesntmatchcertificatesaltnames

执稿此行npmconfigsetstrict-sslfalse

如果遇到npmERR!registryerrorparsingjson

npmcacheclean

执行npmconfigsetregistry

###部署forever

$npminstall-gforever

启动

NODE_ENV=proLANG=zh/usr/local/bin/foreverstart-o

/home/work/log/node_-e/home/work/log/node_/home/work/webroot/

NODE_ENV=pro环境变量pro为生产环境(程序中可以指定)

LANG环境变量指定默认语言

node_输出日志注意路径别抄成我的了

node_错误日志

启动文件

如何用命令行开启nodejs搭建web服务器?

首先,需要安装nodejs,这个可以去官网下载,目前我本地安装的v0.12版本。

安装完成后可以通过命令行测试安装是否成功,输入:node-v,应该会显示当前安装node版本号。

本文中用到的模块,都是nodejs核心模块,不需要从外部下载,如果有需要,可以使用以下命令安装:npminstallxxx。

开始

下一步,新建js文件,可以命名为,代码如下:

varhttp=require(http);

varurl=require(url);

varpath=require(path);

varfs=require(fs);

vardir,arg=[2]||;//命芦裂袭令行第三个参数,用来接收目录,可为空,相对当前文件的目录名称

//比如使用命令nodeserverdebug,意思就是debug文件夹与文件同级

//且你想以debug文件夹启动web服务

(function(req,res){

varpathname=__dirname+();

[linux运维]?1、下载最新二进制源码安装包(29MB),V8.2.1更新于2017年7月20日?

wget是一个Linux下载文件的工具,centos自带。

wget?-c?是断点续传下载方式,后面的URL就是提供下载文件的地址

默认获取的文件地址在/root目录下,命令pwd显示当前目录源带.

??2、安装必要的编译软件?吖米yum?install?gcc?gcc-c++?yum?=?Yellow?dog?Updater,?Modified。

改良黄狗更新器,centos自带智能包管理器。

?中途询问,输入y:在线下载安装?d:只下载不安装?N:不下载不安装

Is?this?ok?[y/d/N]?:y

??3、解压源码tar?-zxvf?当前目录/root/就会多一个node-v8.2.1的文件夹-z:透过gzip的支持进行压缩/解压缩:此时文件名最好为*-x:解压缩的功能-v:在压缩/解压缩的过程中,将正在处理文件名显示出来

f?filename:-f后面要立刻接被处理的文件名.

??4、编译node源码包?1)进入到node源码包解压目录?cd?node-v8.2.1指定NodeJS安装位置./configure?–prefix=/usr/local/node?不指定prefix,则可执行文件默认放在/usr?/local/bin,库文件默认放在/usr/local/lib,配置文件默认放在/usr/local/etc。

其它的资源文件放在/usr?/local/share。

你要卸载这个程序,要么在原来的make目录下用一次make?uninstall(前提是make文件指定过uninstall),要么去上述目录里面把相关的文件一个个手工删掉。

?执行安装文件,足足等了40多分钟

make??make?install

??4、添加环境变量???创建并打开新文件?不存在文件?[root@localhost?node-v8.1.3]#?vim?/etc/profile.d/??输入node安装位置的bin目录所在位置?export?PATH=$PATH:/usr/local/node/binESC?输入:wq?提示:?命令输入错了vim-bash:?rt:?command?not?found-bash:?vim:?command?not?found[解决]i.?那么如何安装?vim?呢?输入rpm?-qa|grep?vim?命令,?陪兄如果?vim?已经正确安装,会返回下面的三行代码:root@server1?[~]#?rpm?-qa|grep?5?如果少了其中的某一条,比如?vim-enhanced?的,就用命令?yum?-y?install?vim-enhanced?来安装:yum?-y?install?vim-enhanced?如果上面的三条一条都没有返回,?可以直接用?yum?-y?install?vim*?命令yum?-y?install?vim*

??使用su?root?source?/etc/profile.d/?=.?/etc/profile.d/?[不间断运行nodejs服务]?npm?install?forever?-g?forever?start?

nodejs搭建web服务器就是这么简单!

是一个基于ChromeV8引擎的JavaScript运行环境。

使用了一个事件驱动、非阻塞式I/O的模型,使其轻量又高效。

的包管理器npm,是全球最大的开源库生态系统。

(nodejs官网上的介绍),正如官网上介绍的那样,nodejs确实很牛!怎么个牛法?看看下面的代码就知道了。

//引入http模块

varhttp=require(http);

//设置主机名

varhostName=127.0.0.1;

//设置端口

varport=8080;

//创建服务

varserver=(function(req,res){

(Content-Type,text/plain);

(hellonodejs);

(port,hostName,function(){

(`服务器运行在{hostName}:${port}`);

短短几行代码就把一个简单的web服务器搭建完成了,为了验证效果,我们在浏览器请求,结果如下

运行成功!

到此为止,一个web服务器就建立成功了!没错就是这么简单,然后我们就可以写个html界桥散面愉快的玩耍了,哈哈哈!果断的写了一个html页面来请求一下我们的web服务器。

代码简单,点击p获取数据并将服务器返回的数据展示。好了,我们运行一下文件,我擦来!居然出现了……

很明显,通过jquery请求不到数据,这是因为跨域请求的原因。

我们的web服务器并不支持跨域请求,所以报错了。

解决方式:在服务器的响应头文件里加上如下代码:

再次重启服务器,运行,显示结果很是令人欣喜!

通常请求服务器都会拼接参数的,最常用的就是get请求,post请求。

很明显,我们现在的代码还不能支持。

express框架很好的封装了nodejs的http模块,使我们用起来非常的简单。

引入express:$cnpminstallexpress–save

使用方式变化不大,通过express()方法开启服务,然后在通过get方法来设置匹配参数的路由,通过在回调函数的req中可以获取请求参数和地址。

post请求也是类似,不过有不同的是,post请求在获取参数的时候要引入body-parser中间件,用于处理JSON,Raw,Text和URL编码的数据。

运行结果:

学习从来不是一个人的事情,要有个相互监督的伙伴,想要学习或交流前端问题的小伙伴可以私信“学习”小明加群获取2019web前端最新入门资料,一岁亮起学习,一起成长!

未经允许不得转载:虎跃云 » 从头开始构建云服务器:全面的技术指南 (从头开始构建大型语言模型 pdf)
分享到
0
上一篇
下一篇

相关推荐

联系我们

huhuidc

复制已复制
262730666复制已复制
13943842618复制已复制
262730666@qq.com复制已复制
0438-7280666复制已复制
微信公众号
huyueidc_com复制已复制
关注官方微信,了解最新资讯
客服微信
huhuidc复制已复制
商务号,添加请说明来意
contact-img
客服QQ
262730666复制已复制
商务号,添加请说明来意
在线咨询
13943842618复制已复制
工作时间:8:30-12:00;13:30-18:00
客服邮箱
服务热线
0438-7280666复制已复制
24小时服务热线