AIGCTalk-Midjourney学习手册
Pinecone使构建高性能的向量...
支持私有文档集成的AI项目。
Inference of LLaMA model in pure C/C++, The main goal of llama.cpp is to run the LLaMA model using 4-bit integer quantization on a MacBook.
在这个网站内,可以直接去体验部署好的开源模型,精彩程度也不亚于那些经常被报道的站点。如果是开发者,那么也可以用它来发布自己的模型。
LangChain文档翻译中文版,跟着LangChain一起学LLM/GPT开发。
ModelScope平台是以模型为中心的模型开源社区。