劝学
青,取之于蓝,而青于蓝;冰,水为之,而寒于水。木直中绳,輮以为轮,其曲中规。虽有槁暴,不复挺者,輮使之然也。故木受绳则直,金就砺则利,君子博学而日参省乎己,则知明而行无过矣。 - 荀子
Constrained Beam Search Constrained Beam Search
使用Transformers做限制集束搜索(Constrained Beam Search)的文本生成 翻译自Guiding Text Generation with Constrained Beam Search in 🤗 Transf
2022-07-03
盘点开源“Copilot”,do it yourself 盘点开源“Copilot”,do it yourself
目录 盘点开源“Copilot”,do it by yourself 目录 1.背景 2.简述 3. 盘点开源代码生成模型 3.1. 模型清单 3.2. 模型测试 3.2.1. Python语言代码生成测试1 3.2.2. Python语言
2022-06-27
使用fastgpt提速huggingface的GPT文本生成模型 使用fastgpt提速huggingface的GPT文本生成模型
使用fastgpt提速huggingface的GPT文本生成模型 fastgpt 是什么 fastgpt是一个基于transformers和onnxruntime的python库,可以无缝衔接的使用 onnxruntime 量化后的 tra
2022-06-25
docker启devpi服务 docker启devpi服务
相关链接: github dockerhub简要 devpi工具相比其他pypi源工具,有如下特点: 节省硬盘:不必完全同步下来公开源的所有包,仅在第一次pip安装时从公开源下载和缓存。 支持上传接口文档:上传自己开发pip库时,可以把接口
2022-03-05
DataMeasurementsTool介绍 DataMeasurementsTool介绍
资源 翻译自 Huggingface Blog 在线工具 GitHub 引子随着机器学习数据集统一平台的快速发展(Lhoest et al. 2021),HuggingFace团队开始探索如何管理数据集文档(McMillan-Major
2022-02-05
bigbird长文本预训练模型介绍 bigbird长文本预训练模型介绍
本博客翻译自huggingface blog。 文末有惊喜 前言基于Transformer的模型已经被证明了在许多NLP任务中的价值,但这类模型的时间复杂度、内存使用复杂度都是$n^2$(n为序列长度),因此当序列长度超过常规的512时
2021-12-12
Transformers仓库做语言生成的解码方法介绍 Transformers仓库做语言生成的解码方法介绍
本博客翻译自huggingface blog 简介最近几年,以OpenAI公司的GPT3为代表,基于transformer结构的大模型都已经开始在上百万级别的网页上面训练。因此大家对开放领域语言生成的期待值也越来越高。开放领域的条件语言
2021-11-08
谁说torchtext不能做多标签任务 谁说torchtext不能做多标签任务
背景最近刷到一篇博客,吐槽torchtext不能做多标签任务,特来为torchtext鸣不平,看好,我要用torchtext做多标签任务了。 简要 解读 torchtext库,做多标签任务 实践 textcnn模型,跑百度事件多标签比赛
2021-10-24
转载:人工智能能否实现? 转载:人工智能能否实现?
以下通篇转载自http://fancyerii.github.io/2019/03/14/philosophy/ 本文讨论人工智能是否可以实现这个哲学问题。本文是《深度学习理论与实战:提高篇》的一章,更多内容请点击深度学习理论与实战:
2021-10-18
分享CML工具在github上的一个原创例子 分享CML工具在github上的一个原创例子
标签MLOPS,CML,ONNX,textcnn,CLUE,Continuous 简要 开源一个使用CML工具的原创例子。 在github的actions中,训练和批测iflytek数据集,批测准确率55%,onnx加速后,在github的
2021-10-15
1 / 3