背包问题
多重背包 单调队列优化 复杂度:O(N^2) 看f[j]的转移 从 $f[j-v]+w,f[j-2\cdot v]+2\cdot w,f[j-3\cdot v]+3\cdot w$ …….中的最大值转移 j体积都会与相同的模数转移过来,考虑枚举从0~v-1的模数,体积每次加v,不同的模数转移互不影响 const int M=200010; int n,m; int f[M],g[M],q[...
多重背包 单调队列优化 复杂度:O(N^2) 看f[j]的转移 从 $f[j-v]+w,f[j-2\cdot v]+2\cdot w,f[j-3\cdot v]+3\cdot w$ …….中的最大值转移 j体积都会与相同的模数转移过来,考虑枚举从0~v-1的模数,体积每次加v,不同的模数转移互不影响 const int M=200010; int n,m; int f[M],g[M],q[...
Model AutoModel:这是一个智能的wrapper,可以根据你给定的checkpoint名字,自动去寻找对应的网络结构,故名Auto。 如果明确知道我们需要的是什么网络架构,就可以直接使用具体的*Model,比如BertModel,就是使用Bert结构。 随机初始化一个Transformer模型**:通过config来加载 *Config这个类,用于给出某个模型的网络...
behind pipeline tokenizer 我们使用的tokenizer必须跟对应的模型在预训练时的tokenizer保持一致,也就是词表需要一致。 Huggingface中可以直接指定模型的checkpoint的名字,然后自动下载对应的词表。 主要参数包括: text,可以是单条的string,也可以是一个string的list,还可以是list的l...
Transformer的大致分类 encode,典型例子:BERT,是一类自编码模型 decode,典型例子:GPT,是一类自回归模型 encode-decode,典型例子:BART/T5,是一类encode-decode模型 encode Encode-only模型,预训练通常为“破坏一个句子,然后模型预测或填补” 适用:文本分类,实体识别,关键信息抽取 ...
Pipeline sentiment-analysis(情感分析) from transformers import pipeline classifier=pipeline("sentiment-analysis") classifier("I've been waitting for a long time.") 输出: [{'label': 'NEGATIVE', 'score': ...
标题分级 级数 符号 一级 # 二级 ## 三级 ### 四级 #### 五级 ##### ...