当前位置:首页 » 行业资讯 » 周边资讯 » 正文

从头开始构建游戏服务器的成本:掌握预算中的每个元素 (从头开始构建大型语言模型)

随着游戏行业的蓬勃发展,越来越多的开发者和企业希望构建自己的游戏服务器。但是,从头开始构建游戏服务器可能是一项昂贵的投资,因此至关重要的是要了解涉及的费用。

硬件成本

硬件成本是构建游戏服务器时最大的开支之一。您需要一台功能强大的服务器来处理数千名玩家、游戏代码和数据。以下是一些需要考虑的硬件组件:

  • 处理器:处理器是服务器的大脑,处理所有计算和任务。您需要一个多核处理器,具有高时钟速度和大量缓存。
  • 内存:例如:

    • 机房托管:您需要将服务器托管在机房中,该机房提供电力、冷却和安全性。机房托管费用根据位置和服务水平而异。
    • 带宽费用:如果您选择自托管服务器,则需要为您的互联网连接支付带宽费用。带宽费用取决于您的连接速度和数据使用量。
    • 开发成本:如果您从头开始构建游戏服务器,则需要聘请开发人员来编写服务器代码。开发成本根据项目的复杂性和开发人员的经验水平而异。

    估算成本

    游戏服务器的总成本将根据您的特定要求而有所不同。但是,您可以使用以下公式作为估计:


    总成本 = 硬件成本 + 软件成本 + 其他成本

    以下是一些成本示例:

    • 低端服务器:5000-10000 美元
    • 中端服务器:10000-20000 美元
    • 高端服务器:20000 美元以上

    结论

    从头开始构建游戏服务器是一项重大的投资。在开始构建之前,了解所涉及的成本非常重要。通过仔细规划和预算,您可以构建一个满足您需求且不会超出预算的游戏服务器。


【LLM】 MM-LLM:多模态大语言模型的最新进展

论文对MM-LLM进行了全面调研,重点关注近期的进展。

首先,将模型架构分为五个组件,详细概述了通用的设计公式和训练流程。

其次,介绍了各种SOTA MM-LLM,每一个都以其特定的公式为特色。

还阐明了它们在各种MM基准上的能力,并展望了这个快速发展的领域的未来发展。

图1:MM-LLM的时间线多模态(MultiModal,MM)预训练研究在近年来取得了重大进展,在一系列下游任务中不断推进性能边界。

然而,随着模型和数据集规模的不断扩大,传统的MM模型会产生巨大的计算成本,特别是从头开始训练。

认识到MM研究处于各种模式的交汇处,一个合乎逻辑的方法是利用现成的预训练好的单模基础模型,特别强调强大的大语言模型(LLM)。

这一策略旨在降低计算费用,提高MM预训练的效果,导致了一个新领域的出现:MM-LLM。

MM-LLM利用LLM作为认知动力,赋能各种MM任务。

LLM贡献了强大的语言生成、zero-shot迁移能力和上下文学习(In-Context Learning,ICL)等理想特性。

同时,其他模式中的基础模型提供高质量的表示。

考虑到不同模式的基础模型都是单独预训练的,MM-LLM面临的核心挑战是如何有效地将LLM与其他模式中的模型连接起来,以实现协同推理。

这一领域的主要关注点一直是通过MM预训练(PT)+ MM指令调优(IT)流程来优化模式之间的对齐并与人类意图对齐。

在GPT-4(Vision)和Gemini)的首次亮相展示了MM理解和生成能力后,MMLLM的研究热情被激发。

最初的研究主要关注MM内容理解和文本生成,如Flamingo、BLIP-2、Kosmos-1、LLaVA/LLaVA-1.5、MiniGPT4、MultiModal-GPT、VideoChat、VideoLLaMA、IDEFICS、Fuyu-8B和QwenAudio。

为了实现能够进行MM输入和输出的MM-LLM,一些研究者还额外探索了特定模式的生成,例如Kosmos2和MiniGPT-5引入了图像生成,SpeechGPT引入了语音生成。

最近的研究努力致力于模拟人类般的任意模式间转换,为通用人工智能指明了道路。

一些工作旨在将LLM与外部工具融合,以实现接近“任意转换”的MM理解和生成,例如Visual-ChatGPT、ViperGPT、MMREACT、HuggingGPT和AudioGPT。

相反,为了减轻级联系统中误差的传播,诸如NExT-GPT和CoDi-2等计划已经开发出了端到端的任意模式MM-LLM。

MM-LLM的时间线如图1所示。

论文展示了一个全面调研,旨在促进MM-LLM的进一步研究。

为了让读者全面理解MM-LLM,首先从模型架构和训练流程勾勒出一般的设计公式。

将一般的模型架构分解为五个组件:模态编码器、输入投影仪、LLM骨干、输出投影仪和模态生成器。

图2:MM-LLM的一般模型架构及每个组件的实现选择训练流程阐明了如何增强仅限文本的预训练LLM以支持MM输入或输出,主要包含两个阶段:还总结了主流的MM PT和MM IT数据集:表1:26个主流MM-LLM的汇总。

I→O:输入到输出模式,I:图像,V:视频,A:音频,3D:点云,T:文本。

在模态编码器中,“-L”表示大型,“-G”表示巨型,“/14”表示补丁大小为14,“@224”表示图像分辨率为224×224。

#和#分别代表MM PT和MM IT期间的数据集规模。

†包括不公开的内部数据表2:主流MM-LLM在18个VL基准上的比较。

红色表示最高结果,蓝色表示第二高结果。

‡表示ShareGPT4V(Chen等,2023e)在基准或原论文中遗漏的重新实现的测试结果。

数据集的训练图像在训练期间被观察到*未来方向论文从以下几个方面探索MM-LLM的有前景的未来方向:更强大的模型可以从以下四个关键途径增强MM-LLM的力量:(1)扩展模态:当前的MM-LLM通常支持以下模态:图像、视频、音频、3D和文本。

然而,现实世界涉及更广泛的模态。

将MM-LLM扩展到容纳更多模态(例如网页、热力图和图表),将提高模型的通用性,使其更加普适。

(2)多样化LLM:结合各种类型和大小的LLM为从业者提供根据其特定要求选择最合适的LLM的灵活性。

(3)改进MM IT数据集质量:当前的MM IT数据集仍有很大的改进和扩展空间。

扩大指令范围可以增强MM-LLM理解和执行用户命令的效果。

(4)加强MM生成能力:当前大多数MM-LLM主要面向MM理解。

尽管一些模型已经集成了MM生成能力,但生成响应的质量可能受LDM能力的限制。

探索集成检索式方法(Asai等,2023)在补充生成过程方面具有巨大的前景,可能提高模型的整体性能。

更具挑战性的基准鉴于许多数据集在一定程度上已经出现在PT或IT集中,现有的基准可能无法充分挑战MM-LLM的能力,这意味着模型可能已经在训练中学习了这些任务。

此外,当前的基准主要集中在VL子领域。

因此,构建一个更具挑战性、更大规模的基准是MM-LLM发展的关键,该基准应包含更多的模式,并使用统一的评估标准。

同时,基准可以定制为评估MM-LLM在实际应用中的熟练程度。

例如,引入GOATBench(Lin等,2024)旨在评估各种MM-LLM识别和响应meme中存在的微妙的社交滥用方面的能力。

移动/轻量级部署为了在资源受限的平台上部署MM-LLM并实现最佳性能,如低功耗移动和物联网设备,轻量级实现至关重要。

这一领域的一个显着进步是MobileVLM(Chu等,2023a)。

这种方法战略性地降低了LLaMA的规模,允许无缝的现成部署。

MobileVLM进一步引入了一个轻量级下采样投影仪,包含不到2000万个参数,有助于提高计算速度。

尽管如此,这一领域还需要进一步探索以实现进一步发展。

具身智能(Embodied Intelligence)具身智能旨在通过有效理解环境、识别相关对象、评估其空间关系并制定全面的任务计划来模拟人类对周围环境的感知和交互。

具身AI任务(如具身规划、具身视觉问答和具身控制)使机器人能够利用实时观察自主实施扩展计划。

这一领域的一些典型工作是PaLM-E(Driess等,2023)和EmbodiedGPT(Mu等,2023)。

PaLM-E通过训练MM-LLM引入了一个多具身代理。

除了仅作为具身决策者之外,PaLM-E还展示了处理一般VL任务的熟练程度。

EmbodiedGPT引入了一种经济有效的方法,其特征在于CoT方法,增强了具身代理与现实世界互动的能力,并建立了连接高层计划与低层控制的闭环。

虽然基于MM-LLM的具身智能在与机器人的集成方面取得了进展,但需要进一步的探索来增强机器人的自主性。

持续IT在实际应用中,期望MM-LLM能够适应新的MM任务,以支持额外的功能。

然而,当前的MM-LLM仍然是静态的,无法适应不断出现的新要求。

因此,需要一种方法使模型足够灵活,可以高效持续利用新出现的数据,同时避免重新训练MM-LLM的巨大成本。

这与持续学习的原则一致,在持续学习中,模型被设计为类似人类学习那样渐进地学习新任务。

持续IT旨在在保持原MM IT阶段学习任务的卓越表现的同时,持续微调MM-LLM以适应新的MM任务。

它引入了两个主要挑战:(1)灾难性遗忘,即模型在学习新任务时忘记以前的知识;(2)负向前移传递,指出当学习新任务时未见任务的性能下降。

最近,He等建立了一个基准,以推动MM-LLM的持续IT发展。

尽管取得了这些进步,但在开发更好的方法来解决灾难性遗忘和负向前移传递的挑战方面,仍有很大的改进空间。

论文标题:MM-LLMs: Recent Advances in MultiModal Large Language Models论文链接: /abs/2401.1360…

如何学好次世代游戏建模设计,新手想学可以

学好次时代游戏建模,首先要知道什么是次世代游戏建模,作为新手然后在决定你学的方向!首先来说次时代建模:“次世代”指代和同类游戏相比下更加先进的游戏,即“下一代游戏”的意思。

次世代”主要是由日语原字“次世代”进入中国而来。

看字面上意思就是“下一代”游戏。

和传统游戏相比较次世代游戏开发技术融入到现代游戏之中,通过增加模型的面和贴图的数据量并使用次世代游戏引擎改善游戏的画面效果。

另外次时代游戏建模大概可以是分为分为场景和人物两个方向,

人物的话比较常见的就是要知道人体结构的解剖,了解人体结构、人体肌肉走向等,这也是一个拥有良好美术功底所具备的常识和基本功。

场景的话需要熟悉建模物体的结构等方面。

除此之外,还需要具备对材质的理解,色彩构成关系,比例关系,疏密关系,结构概括等,这都是需要通过绘画学习的基础知识。

如果是手绘游3D模型,模型面数很少,基本上只能靠贴图来表现细节。

这种模型贴图的绘制,更需要具备良好的绘画功底。

所以说,如果你是新手想要快点学好学会,早点入行,还是报个3D建模培训班或课程会比较好。

需要明白一点,能够自学学成的人,背后的学习都会有系统化补习功课,不然同样的环境,同样的老师难道真的就有人高人一等嘛!不是的人与人的差距都在于学习的差异,表面看上去和你一样学习,下去更是系统化学习整个知识网络体系。

建模交流

人物建模

建模基础操作

Reka:为企业构建定制化AI模型

Reka,一家由来自DeepMind、Google、网络和Meta的研究人员共同创立的公司,致力于解决大型通用语言模型部署到特定任务中面临的问题。

Reka的目标是提供一种简便方法,让AI的好处以负责任的方式惠及世界。

Reka的首席执行官Dani Yogatama表示,Reka是一个研究与产品公司,致力于开发多模态AI“助手”Yasa。

Yasa不仅能够理解文本,还能处理图像、视频和表格数据,为企业提供创意、解答基本问题,并从内部数据中提取洞察。

与GPT-4等模型相似,Yasa能够理解和处理文本与图像信息,但其独特之处在于能够轻松适应专有数据和应用,进行个性化定制。

Reka的愿景是让每个企业都能使用LLMs的力量,而无需面对复杂性。

Reka的精简Yasa模型能够保留数据在企业内部,具有极高的成本与能源效率,无需昂贵的团队从头开始构建模型。

通过与Snowflake等合作伙伴的合作,Reka已经赢得了早期客户和投资者的支持,并获得了Appen等公司的认可。

Reka以其独特的销售策略吸引了一批客户和投资者,虽然它并非是唯一追求为企业场景提供模型的创业公司。

OpenAI等主流公司同样提供微调模型和连接互联网及数据源的工具以保持模型的更新。

Reka计划继续发展,推出能够处理更多类型数据、具备持续自我提升能力的AI模型。

为了推动公司的发展,Reka利用获得的资金购买Nvidia的计算能力,组建商业团队,加速其创新步伐。

未经允许不得转载:虎跃云 » 从头开始构建游戏服务器的成本:掌握预算中的每个元素 (从头开始构建大型语言模型)
分享到
0
上一篇
下一篇

相关推荐

联系我们

huhuidc

复制已复制
262730666复制已复制
13943842618复制已复制
262730666@qq.com复制已复制
0438-7280666复制已复制
微信公众号
huyueidc_com复制已复制
关注官方微信,了解最新资讯
客服微信
huhuidc复制已复制
商务号,添加请说明来意
contact-img
客服QQ
262730666复制已复制
商务号,添加请说明来意
在线咨询
13943842618复制已复制
工作时间:8:30-12:00;13:30-18:00
客服邮箱
服务热线
0438-7280666复制已复制
24小时服务热线