AI大模型
话题 | 回复 | 浏览量 | 活动 | |
---|---|---|---|---|
关于“AI大模型”类别
|
![]() |
0 | 105 | 2023 年3 月 23 日 |
LLM生成效果相关
|
![]() |
0 | 33 | 2023 年11 月 19 日 |
以LLAMA为例,快速入门LLM的推理过程
|
![]() ![]() ![]() |
4 | 2116 | 2023 年11 月 1 日 |
大模型推理——FasterTransformer + TRITON
|
![]() |
0 | 366 | 2023 年7 月 21 日 |
大模型模型推理加速相关技术汇总
|
![]() |
0 | 1507 | 2023 年6 月 21 日 |
Vision-Related LLM
|
![]() |
0 | 143 | 2023 年5 月 20 日 |
Code Gen 大语言模型
|
![]() |
1 | 130 | 2023 年8 月 25 日 |
大模型推理——分布式技术相关
|
![]() |
0 | 319 | 2023 年7 月 20 日 |
大大大大大模型部署方案抛砖引玉
|
![]() |
0 | 751 | 2023 年6 月 4 日 |
LLM推理框架之vLLM
|
![]() |
0 | 1292 | 2023 年7 月 20 日 |
torch.distribute分布式系列
|
![]() |
0 | 62 | 2023 年8 月 8 日 |
LLM推理框架之lmdeploy
|
![]() |
0 | 144 | 2023 年8 月 1 日 |
大模型中的kv-cache
|
![]() |
0 | 1088 | 2023 年7 月 27 日 |
llama2相关
|
![]() |
0 | 257 | 2023 年7 月 19 日 |
SparK: the first successful BERT/MAE-style pretraining on any convolutional networks
|
![]() |
0 | 55 | 2023 年7 月 6 日 |
视觉预训练大模型?
|
![]() |
0 | 72 | 2023 年6 月 25 日 |
好用的prompt总结
|
![]() |
0 | 173 | 2023 年6 月 11 日 |
大模型的INT4量化相关
|
![]() |
0 | 120 | 2023 年6 月 20 日 |
Meta开源的大模型LLAMA相关
|
![]() |
2 | 161 | 2023 年6 月 15 日 |
Evidence of Meaning in Language Models Trained on Programs
|
![]() |
0 | 74 | 2023 年5 月 20 日 |
图像生成图像、文本生成图像相关
|
![]() |
0 | 105 | 2023 年5 月 8 日 |
关于LLM的stream模式
|
![]() |
0 | 122 | 2023 年4 月 25 日 |
self-hosted LLM相关
|
![]() |
0 | 103 | 2023 年4 月 12 日 |
利用大语言模型做自己的知识库
|
![]() |
0 | 117 | 2023 年3 月 28 日 |
大模型中的量化
|
![]() |
0 | 131 | 2023 年4 月 4 日 |
多模态相关大模型
|
![]() |
1 | 134 | 2023 年3 月 26 日 |