发表评论取消回复
相关阅读
相关 LLM-预训练:深入理解 Megatron-LM(1)基础知识
> 最近在基于Megatron-LM的代码来训练大语言模型,本人觉得Megatron的代码很具有学习意义,于是大量参考了网上很多对Megatron代码的解读文章和NVIDA M
相关 如何快速落地LLM应用?通过Langchain接入千帆SDK
百度智能云千帆大模型平台再次史诗级升级!在原有API基础上,百度智能云正式上线Python SDK(下文均简称千帆 SDK)版本并全面开源,企业和开发者可免费下载使用!千帆SD
相关 【LLM系列之Tokenizer】如何科学地训练一个LLM分词器
1 背景与基础 1.1 为什么需要分词 对于人而言,在我们学会阅读之前,仍然可以理解语言。比如当你开始上学时,即使你不知道名词和动词之间的区别,但是你已经可以
相关 LLM-大模型训练-步骤(一):词表扩充【sentencepiece】
GitHub项目:[Chinese-LLaMA-Alpaca][] 由于原版LLaMA对中文的支持非常有限,本项目在原版LLaMA的基础上进一步扩充了中文词表。 在通
相关 LLM-分布式训练工具01-DeepSpeed:ZeRO系列【将显存优化进行到底】
前言 目前训练超大规模语言模型主要有两条技术路线:TPU + XLA + TensorFlow/JAX 和 GPU + PyTorch + Megatron-LM + D
相关 LLM-202210:GLM【开源双语预训练语言模型】
[《GLM: General Language Model Pretraining with Autoregressive Blank Infilling》][GLM_ Gen
相关 LLM-202201:Gopher
[论文:Scaling Language Models: Methods, Analysis & Insights from Training Gopher][Scaling
相关 LLM-2023:Auto-GPT
从本质上来看,Auto-GPT 是一种自动文本生成技术,它使用深度学习算法来生成类似人类的文本。它基于生成式预训练转换器 ( GPT ) 架构,是一种旨在生成自然语言文本的神经
相关 LLM-202304:MiniGPT-4
项目地址:https://minigpt-4.github.io/ GitHub地址:https://github.com/Vision-CAIR/MiniGPT-4 论文
相关 ElasticSearch之Tokenizer 分词器
java学习讨论群:725562382 Tokenizer Standard Tokenizer curl -X POST "192.168.0.120:920
还没有评论,来说两句吧...