AI项目
分享最前沿,最牛逼,最具有使用价值的AI开源项目。适合懂技术,懂代码,爱研究的朋友。
现在内容比较少,没有进行分类,后期慢慢优化。
目前最强的开源AI换脸工具!可以进行各种类型的视频换脸,提供了各种人脸处理工具,可以使用遮罩实现局部换脸。
单图一键换脸,无需训练模型,只要一张图片就可以快速替换照片或者视频中的人脸。
通过声音驱动图片,让静态图片开口说话。
一个强大的声音克隆工具,本身目的是克隆歌声,因为AI孙燕姿而火爆。这是一个强大切完善的项目。不同于文本生成声音的克隆方式(TTS–Text to Speech),这是需要声音来驱动的转换,类似于变声器。
一个强大的AI绘画模型微调工具。可以特定人物和特定风格的Lora模型。有一个WEB界面,可以独立配置运行,能训练Lora ,DreamBooth。
拖拽P图神器,基于StyleGAN。
类似的项目还有:
https://github.com/JiauZhang/DragGAN
https://github.com/Zeqiang-Lai/DragGAN
ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)
ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:更强大的性能,更长的上下文,更高效的推理,更开放的协议。
一个ChatGLM 网页版界面。
一种平价的chatgpt实现方案, 基于ChatGLM-6B + LoRA
chatglm 6b finetuning and alpaca finetuning
基于LangChain和ChatGLM-6B等系列LLM的针对本地知识库的自动问答
Fine-tuning ChatGLM-6B with PEFT | 基于 PEFT 的高效 ChatGLM 微调
用于训练斯坦福大学羊驼模型并生成数据的代码和文档。Alpaca是由Meta的LLaMA 7B微调而来的全新模型,仅用了52k数据,性能约等于GPT-3.5。更为关键是训练成本奇低,不到600美元。
FastChat 是一个开放平台,用于训练、服务和评估基于大型语言模型的聊天机器人。核心功能包括:
- 最先进模型(例如 Vicuna、FastChat-T5)的权重、训练代码和评估代码。
- 具有 Web UI 和 OpenAI 兼容 RESTful API 的分布式多模型服务系统。
2023年3月底,来自UC伯克利、卡内基梅隆大学、斯坦福大学和加州大学圣地亚哥分校的研究人员开源了Vicuna,这是一个与GPT-4性能相匹配的LLaMA微调版本。
一个中文低资源的llama+lora方案,结构参考alpaca
MOSS是一个支持中英双语和多种插件的开源对话语言模型,moss-moon
系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张3090显卡运行。MOSS基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。
OpenLLM 是一系列开源语言模型,在小型但多样化且高质量的多轮对话数据集上进行了微调。具体来说,我们仅利用直接从约 90K ShareGPT 对话中过滤出来的约 6K GPT-4 对话。尽管数据集规模较小,但 OpenLLM 仍表现出了卓越的性能。
C-Eval 是一个全面的中文基础模型评估套件。它包含了13948个多项选择题,涵盖了52个不同的学科和四个难度级别
Gaokao 是一个以中国高考题作为评测大语言模型能力的数据集,用以评估模型的语言能力和逻辑推理能力。
AGIEval 旨在评估模型的认知和解决问题相关的任务中的一般能力。
MMLU (LLM测评)
MMLU 是包含 57 个多选任务的英文评测数据集,涵盖了初等数学、美国历史、计算机科学、法律等,难度覆盖高中水平到专家水平,是目前主流的LLM评测数据集。
🤗 Open LLM Leaderboard旨在跟踪、排名和评估开源的LLM(Large Language Models)和聊天机器人。
大语言模型中SD-WebUI,可以支持各类大语言模型,快速运行,快速体验。关联项目,text-generation-webui-colab,one-click-installers