大家好,今天继续聊聊科技圈发生的那些事。
一、LitGPT
LitGPT 是一款用于预训练、微调和部署 LLM 的命令行工具。
我们能看到主页有这样一句话:
For training the world's largest, most powerful open-source LLMs. (用于训练世界上最大、最强的开源 LLM。)
一看到这种最大、最强之类的词,我们难免心生疑惑。那么 LitGPT 是怎么做的呢?
LitGPT 重新实现了所有模型架构和训练配方:
- 去除所有抽象层,采用单一文件实现。
- 保证符合 Apache 2.0 标准,使企业使用不受任何限制。
- 优化每个模型的每个细节,以获得尽可能快的性能,从而降低成本和训练速度。
除此之外,LitGPT 还使用了很多先进的技术。比如用 LoRA 、 Adapter 等进行参数微调,用 Flash Attention 降低显存读写,提高运行速度等,这都是优势所在。
另外,对于自行部署 LLM ,LitGPT 提供了 20 多种现成的 LLM 可供使用,其中不乏有许多我们耳熟能详的模型,比如 Llama 2。你可以使用这些模型配合自己的数据进行微调、预训练等。
项目的部署也很简单,用 pip 直接安装即可。剩下的内容,比如使用、预训练等操作,作者团队在项目主页也已经给出了完整的教学。
项目已经开源,想体验的小伙伴可以自行关注一下。
项目地址:
https://github.com/Lightning-AI/litgpt
二、Parler-TTS
Huggingface 最新推出的 TTS 模型,支持多种语言,支持个性定制化,使用非常简单。
对于先前常见的 TTS 模型,我们通常会选择语言、说话风格、语速等参数。但是 Parler - TTS 是没有这些可调参数的。那么,我们要如何定制我们想要生成的声音信息呢?
我们来看一下 Parler - TTS 的 prompt 实例,其中包含两个部分:
- Input Text 输入文本
- Description 描述
在这个 Description 部分,我们可以通过文本输入,提供我们想要的语音风格描述,比如声音的性别,语速快慢,音调高低,甚至是背景音的嘈杂程度和说话的清晰度。
另外,Parler - TTS 是完全开源的,包括权重信息、数据集等等。如果有谁想要在它的基础上进行一些“私人订制”或是微调,都是完全能实现的。
对于Parler - TTS 的本地安装,有多简单呢?一行代码!
1 | pip install git+https://github.com/huggingface/parler-tts.git |
说了这么多,我们回到这段话的开头,它的作者可是 Huggingface ,既然是 Huggingface 自己做的,想必我们一定能在线体验了吧?
答案是肯定的,不过这玩意目前还不支持中文。在此,我们就可以想象一段在未来用 Parler - TTS 生成的主播音:上链接。
在线体验地址:
https://huggingface.co/spaces/parler-tts/parler_tts_mini
项目地址:
https://github.com/huggingface/parler-tts
三、InternLM-XComposer2
InternLM-XComposer2 ,一款图文多模态大模型,它还有个超帅的中文名字——浦语·灵笔2。
InternLM-XComposer2 有两块大功能,一个是创建图文并茂的文章,另一个是多模态对话问答。
InternLM-XComposer2 可以理解多种形式的图文指令输入,包括大纲、文章细节要求、参考图片等,生成图文并茂的文章,例如项目团队展示的 demo,生成了一篇介绍熊猫的文章。
InternLM-XComposer2 具有海量图文知识,可以准确的回复各种图文问答难题。比如你可以在上传数学题的同时,把题目的参考图像一起发给 InternLM-XComposer2,就不用让它根据描述自行想象了。你也可以通过重复惩罚等参数调节,进行对话内容的微调。
InternLM-XComposer2 的性能表现也非常不错。在13项多模态评测中,InternLM-XComposer2 大幅领先同量级的多模态模型,在其中6项评测中超过 GPT-4V 和 Gemini Pro。
作者团队也给出了本地部署的安装教程,包括环境的配置,使用案例指导,多 GPU 条件下的脚本,4bit 模型的依赖等。我们也可以在线体验到这款优秀的模型。
在线体验地址:
https://huggingface.co/spaces/Willow123/InternLM-XComposer
对于这个项目,作者团队还在不断更新,我们可以期待一下后续的发展。
项目地址:
https://github.com/InternLM/InternLM-XComposer
四、30 Days Of Python
30 天,学会 Python !
一进项目的主页,扑面而来的就是令人倍感舒适、整洁有序的文件夹。
30 Days Of Python 这个项目,主要是一个 Python 教学向的大目录。为什么在此作出推荐分享呢?因为它实在是太精细了。
我们来简单看看文档部分:
在 01 章的 Introduction 中,直接从如何安装 Python 环境开始,再到简单的语法教学,如何看报错信息,甚至教你如何安装使用 VS Code !前人栽树,后人乘凉,确实是少走了很多弯路。至少对于一个从来没有接触过 Python ,甚至是编程的小白来说,配置编程环境也算是一道坎了。
在每一个章节的最后,作者团队也留下了练习,可以供初学者们加以巩固。有没有一种老师留课后作业的感觉?
我们再往后看看,往后的几章涉及到了变量、函数、字符串等基础的知识,越往后,学习到的内容就越深、越全面。比如,到了 Day 21 ,接触到了类和对象;更后面的 Day 25 ,使用 pandas 库处理数据,建立 Dataframe 等;尾声的 Day 28 、 Day 29,涉及 API 的使用和建立。
如果真的能抽出一些时间,完整的跟随这个项目进行为期一个月的学习,我相信初学者一定会受益匪浅,提升一大截编程水平。而“老鸟”们也一定会在这样一份干练的学习计划中,查缺补漏,加深记忆,同样有所收获。
再说回来,这份项目是全英文的,无论是对于在校生还是在职者,会不会也能顺便提升一点英文水平呢?一试便知,感兴趣的小伙伴可以点进项目主页看看。
项目地址:
https://github.com/Asabeneh/30-Days-Of-Python
好了,本期的内容就是这么多,我们下期再见!