woshiyujiaolong
有几种原因可能导致仿真运行速度很慢:1. 模型中有一个 MATLAB 函数块 :当存在 MATLAB Fcn 模块时,在每个采样时间都会调用 MATLAB 解释器。这会大大降低仿真速度。所以,应尽可能使用内置Simulink模块。2. MATLAB S函数(S-Function):在每个时间步长都会计算 S-Function。把MATLAB代码转为MEX文件,这样性能可以得到显著提高。此外,如果可能,应尽量使用内置模块建模。3. 较小的步长或采样时间(或者彼此间不是倍数关系的采样时间):为了在仿真期间捕获重要事件,有时必须设置最够小的步长;反过来,步长太小会导致产生不必要的输出点,从而减慢仿真速度。4. 最大步长太小:如果您更改了最大步长,请尝试用默认值(设置为自动)来运行仿真。5. 您要求的精度可能过高:默认相对容差( 精度)通常就足够了。对于状态趋于零的模型,如果绝对容差参数太小,则仿真可能在近零状态值附近采用过多步长。有关容错度的详细信息,请参阅《使用 Simulink 手册》第 5-13 页。请记住,所有要输入的容差值都是绝对值。所以,默认相对容差值设置为 1e-3 时,意味着相对容差是 ,或者 (采用百分比形式)。6. 时间尺度可能太长:减少时间间隔。7. 您的模型中包含一个 Memory 模块:使用 Memory 模块会导致在每个步长上变阶求解器(ode15s 和 ode113)被重置回阶数 1。8. Extras 库中有包含以上三项之一(即Graph Scope、Autoscaling Scopes、Spectrum analyzer等)的Mask模块:Unmask模块来看看它们是否调用 S-Function。9. 使用了Scope模块:尽管它们的影响很可能不明显。10. 代数环:为了解代数环,会在每个步长上都执行迭代计算。因此,它大大降低了速度。有关代数环的详细信息,请参阅《使用 Simulink 手册》第 3-18 页。11. 不要在积分函数中引入白噪声模块:对于连续系统,使用 Extras/Sources 库中的带限白噪声模块。12. 这可能是个刚性(stiff)问题,而您使用的是非刚性(non-stiff)求解器:尝试使用 ode15s。13. 您可能碰到了连续过零,导致仿真逐渐“停滞”,时间很长(并且可能是无限长时间):要解决此问题,可以禁用过零检测。这可以通过在“Simulation 参数”(Simulation Parameters) 对话框的“高级”(Advanced) 窗格中选择“禁用过零检测”(Disable zero crossing detection) 选项来实现。在 R11 中,可通过转到模型的“仿真”(Simulation) ->“参数”(Parameters) ->“诊断”(Diagnostics) 部分来实现此目的。有关过零检测的详细信息,请参阅《使用 Simulink 手册》第 5-44 页。14. 您也可能想要尝试设置“模型参数配置”(Model Parameter Configuration) 对话框以便您的 Simulink 模型使用“内联参数”(Inline Parameters) 选项:选择此选项可使 Simulink 能够将指定参数视为常量,从而加快仿真速度。请参阅《使用 Simulink 手册》第 5-30 页了解更多信息。15. Simulink Accelerator 仿真模式可以加快仿真时间。Profiler可以分析模型性能瓶颈来提高仿真速度。16. 如果模型非常复杂(涉及大量模型引用和子系统)且包含大量数据记录,仿真速度也会受到影响:禁用数据记录功能也能提高仿真速度。除此之外,仿真速度受系统(即处理器、RAM、正在发生的交换量等)的制约。关于仿真速度有还有几点需要考虑:- 图形引擎速度- CPU 速度- 内存量为此,下面是几点提示:- 如果在仿真过程中有打开的scope或其他可视化输出设备,这些都会降低性能- 性能与 CPU 速度成正比- 如果在仿真过程中存储的变量大于系统上的 RAM 量,则性能会很差。解决办法是运行较小的仿真或增加内存
sunshine哒哒哒
此篇读书笔记对应于《 Theoretical Ecology Principles and Applications 》第三版第五章——Predator–prey interactions. 捕食是种间互作中的一种,是影响种群动态的重要因素,同时也是修正Malthus模型的一个变量。受捕食者–猎物互作关系的影响,Malthus模型被修正为:这就是著名的 Lotka–Volterra模型 (Lotka,1925;Volterra,1926)其中, 代表猎物种群的内禀增长率, 代表捕食者的攻击率, 代表猎物对捕食者的积极效应, 代表捕食者的固定死亡率。仔细观察,发现里面有很多假设:(1)猎物的增长率恒定。即猎物的食物获取、自然死亡等过程均被简化为一个常数;(2)捕食者随机攻击。攻击率 是常数, 捕食速率 就只能与捕食者的数量成正比;(3)猎物是造成捕食者增长的唯一因素;(4)捕食者可能自然死亡,可能被更高级的捕食者捕食,但这些因素全被简化成一个常数 。 另一个简单的模型是 Nicholson–Bailey模型 ,用于研究寄生关系:其中, 代表每个宿主个体产生的子代数量。 代表被寄生宿主的存活率。 验证某一理论是否正确,往往需要拿多个尽可能是相互独立的模式进行验证,这叫做面向模式的建模(pattern-oriented modeling)。 模式1: 非线性时间序列分析(nonlinear time-series anlysis)表明,苏必利尔湖一带的驼鹿–狼系统中,驼鹿( M ,猎物)种群密度仅与自身种群密度相关,而狼( W ,捕食者)则受两者种群密度调控:其中, 和 代表非线性效应。 模式2:捕食者和猎物的在某段时间内的期望值。采用不同模式验证表明,原始的Lotka–Volterra模型还有很多没有考虑的因素,比如时滞、功能响应、密度依赖、环境异质性、随机性等。 模拟研究发现,Lotka–Volterra模型和Nicholson–Bailey模型表现出不同的种群动态。相比于前者,后者中的寄生物总是迅速将宿主维持到很低的水平(图1)。 这种现象由 时滞(time lag) 造成。而时滞的本质是年龄结构,比如刚出生的猎物还无法繁殖,刚出生的猎物捕食能力还很低,等等。当Lotka–Volterra模型改成如下形式时,连续模型和离散模型能产生统一的结果:类似的效应事实上在本书第三章也有讨论。 如前所述,Lotka–Volterra模型和Nicholson–Bailey模型均假定捕食者随机捕食。但现实中,捕食率 受其他因素影响,因而并不随机,从而对种群动态产生持久的影响。 自然,人们会想到捕食行为可能受 猎物密度 调控:哪里猎物密度高我就去哪里。很遗憾,这种想法马上被现实打脸了(图2)。 此时, 功能响应(functional response) 这一概念应运而生,其实就是 和 的关系。于是也有了Holling在1959年在论文《 Some characteristics of simple types of predation and parasitism 》中提出的所谓Type I、Type II和Type III曲线。例如,Type II曲线为:此时,捕食速率不再是 ,而是引入了一个修正项。其中, 代表捕食者处理一个猎物所需要的时间。 但功能响应理论说到底还是为了去面对不同捕食者 关系不同而去设计的。它想表达这么个意思:现实中 关系复杂,既然你复杂,我理论研究也跟着复杂,那模型总能更接近真实情况。问题在于,图2中的现象因何发生?这点是功能响应理论仍旧没有回答的。 相反,功能响应理论则是被动地承认了图2观察到的模式的确给“哪里猎物密度高我就去哪里”这种观点造成了“降维打击”。 果真如此吗?不好说。首先,图2这些模式的产生完全可能受其他因素干扰;其次,每个捕食者一定能 感知 到哪个斑块猎物密度最高吗? 随后,研究人员的目光转移到了 捕食者空间分布和稳定性的关系上 。本质上,研究者的意思就是:我觉得猎物密度 这玩意儿的区分度不够,应该完完全全地保留原始的猎物空间分布数据去探讨功能响应问题。因为稳定性说白了就是种群动态的一部分,就是微分方程的解,只不过换了一套说辞,或者说稳定性属于种群动态的一个属性。 书中讨论了两种空间效应: 尺度(scale) 和 扩散限制(dispersal limitation) 。同时与Levins集合种群理论结合起来作讨论。空间效应作为重要因素的探讨其实屡见不鲜,但往往能像诸如传统的种群矩阵模型那样提供发人深省的理论。在此不作展开。 相比于前几章,本章给人的收获并不大,也许是因为捕食者–猎物动态只是Malthus模型的一个实例化,也许是因为本章重在以综述的口吻介绍该领域的研究进展,而非对某一结论展开深入讨论,展示思维的力量。 同时,也留下一个问题。既然Lotka–Volterra模型具有平衡点 ,为什么捕食者–猎物动态还是表现出周期性的动态呢?可能需要再看下常微分方程本身的性质吧。上一篇: 读书笔记:理论生态学原理及应用(三)——集合种群 下一篇: 读书笔记:理论生态学原理及应用(五)——植物种群动态
继续改一个
现在我给个方案你,里面是4个球队的,不过你照模式改成5个球队的就可以了啊。为方便起见,现将这四个队伍分别命名为A、B、C、D。下面我们分两大类情况讨论 一、 所有比赛都不出现平局1. 请看以下三幅双向连通图:(1) (2) (3)这三幅双向连通图显然表示以下排名及得分的情况为:(1)A:9 D:6 B:3 D:0 这种情况下,显然不存在并列的队伍;(2)(A B C):6 D:0 这种情况下,A B C并列第一,D第二名;(3)D:9 (A B C):3 这种情况下,D第一名,A B C并列第二名。以上得分及排名情况并不存在争议,在此我们不做多余的讨论。 2. 请看右边这幅双向连通图:如右图所示,此图中各队伍的得分为: A:6 B:3 C:3 D:6此时按照 (A D)(B C)的排名方式或者是按照 A D B C 的排名方式是否就算是公平的排名方式呢? (4)下面我们来分析一下:1建立模型: 定义相邻接矩阵如下: 故邻接矩阵为: 对于n=4个顶点的双向竞赛连通图,存在正数r,使得邻接矩阵Ar>0,A成为素阵2模型求解: 利用Perron-Frobenius定理,素阵A的最大特征根为正单根λ,对应正特征向量S,且有利用MATLAB新建M文件输入如下代码:A=[0303;0030;3000;0330];V=eig(A);X=max(V)计算得特最大特征值:λ=经过归一化计算后得到矩阵:S =()T所以图(4)所示的比赛排名结果为:A D C B 二、 比赛中出现平局的情况1. 请看以下三幅双向连通图:这三幅双向连通图显然表示以下排名及得分的情况为:(5)A:7 D:5 B:2 D:1 这种情况下,显然不存在并列的队伍;(6)D:9 (A B C):2 这种情况下,D第一名,A B C并列第二名;(7)(A B C):2 D:0 这种情况下,A B C并列第一,D第二名。以上得分及排名情况并不存在争议,在此我们不做多余的讨论。 2. 请看右边的双向连通图:如右图所示,此图中各队伍的得分为: A:5 B:2 C:2 D:6此时按照 (D A)(B C)的排名方式或者是按照 D A B C 的排名方式是否就算是公平的排名方式呢?同样的我们通过建立数学模型来分析一下:1建立模型: 定义相邻接矩阵如下: 故邻接矩阵为:对于n=4个顶点的双向竞赛连通图,存在正数r,使得邻接矩阵Ar>0,A成为素阵2模型求解: 利用Perron-Frobenius定理,素阵A的最大特征根为正单根λ,对应正特征向量S,且有利用MATLAB新建M文件输入如下代码:A=[0113;1010;1100;0330];V=eig(A);X=max(V)计算得特最大特征值:λ=经过归一化计算后得到矩阵:S =()T所以图(8)所示的比赛排名结果为:D A C B
0子爵绿子0
数据准备: New_HOI New_verb New_objectPaper reading: Title: VideoBERT: A Joint Model for Videoand Language Representation Learning Author: Chen Sun, Austin Myers, CarlVondrick, Kevin Murphy, and Cordelia Schmid 摘要: Self-supervised learning has becomeincreasingly important to leverage the abundance of unlabeled data available on platforms likeYouTube. Whereas most existing approaches learn low-level representations, wepropose a joint visual-linguistic model to learn high-level features withoutany explicit supervision. In particular, inspired by its recent success inlanguage modeling, we build upon the BERT model to learn bidirectional jointdistributions over sequences of visual and linguistic tokens, derived fromvector quantization of video data and off-the-shelf speech recognition outputs,respectively. We use VideoBERT in numerous tasks, including actionclassification and video captioning. We show that it can be applied directly toopenvocabulary classification, and confirm that large amounts of training dataand cross-modal information are critical to performance. Furthermore, weoutperform the state-of-theart on video captioning, and quantitative resultsverify that the model learns high-level semantic features. 为了利用YouTube等平台上大量未标记的数据,自我监督学习变得越来越重要。现有的方法大多是学习低层表示,而我们提出了一种联合的视觉语言模型来学习高层特征,不需要任何明确的监督。特别是,受其最近在语言建模方面的成功启发,我们在BERT模型的基础上,学习了视觉和语言标记序列上的双向联合分布,它们分别来自视频数据的矢量量化和现成的语音识别输出。我们在许多任务中使用VideoBERT,包括动作分类和视频字幕。我们证明它可以直接应用于开放词汇表分类,并证实大量的训练数据和跨模式信息对性能至关重要。此外,我们在视频字幕方面的表现也超过了现有的技术水平,定量结果验证了该模型能够学习高级语义特征。要点 摘要: 1. Youtube上存在大量的视频数据,没有标记,给自监督学习提供了大量的数据来源。(视频有语音) 2. 目前存在的方法都是低层次的特征表示。本文提出的视频-语义联合模型在没有显式监督的情况下学习到了高层次的特征信息。 3. 在BERT的基础上,学习视觉-语义的标记序列的双向联合分布,序列分别来自视频数据的向量量化,和现成的语音识别输出。 4. 这个VideoBERT模型用于动作分类和视频字幕。 5. 可以直接用于开放词汇表分类 6. 实验证实了大量的训练数据和多模态对性能至关重要。数据越多效果越好,用了多模态比不是多模态的要好 7. VideoBERT在视频字幕任务上超过了state-of-the-art. 8. 定量结果验证了该模型能够学习高级语义特征。Introduction: 1. 深度学习可以从标记数据中学习到内容,但标记数据很难大规模获取。 2. 这些方法大多侧重于低层次的特征(如纹理)和短时间尺度(如持续时间不超过一秒的运动模式)。 3. 我们感兴趣的是发现高层次的语义特征,这些特征对应于在更长的时间尺度(如分钟)内展开的动作和事件,因为这样的表示对于各种视频理解任务是有用的。 4. 特别地,我们提出了一种简单的方法来建模视觉域和语言域之间的关系,结合三种现成的方法:自动语音识别系统(ASR)将语音转换成文本;矢量量化(VQ)在低水平时空视觉特征中的应用以及最近提出的用于学习离散标记序列上联合分布的BERT模型。 5. 我们可以执行 文本 - 视频 的预测,它可以用来自动演示一组指令(比如菜谱),如图1和图2的顶部示例所示。 6. 我们还可以执行更传统的 视频 - 文本 的任务,即对[10]进行密集的视频字幕,如图6所示。 7. 我们的视频字幕方法在YouCook II数据集上达到state-of-the-art 8. 该模型可以在比其他深度生成模型更高的抽象级别上生成可信的猜测,它倾向于预测场景低层次方面的细微变化,比如少量对象的位置或姿态。 9. 我们在这篇论文的主要贡献是一个简单的方法来学习 高层次的视频表示 ,捕获语义上有意义和长时间序列结构。Related Work 1. 有监督学习:有很多视频表征学习的方法利用已有大量的标记数据集训练卷积神经网络达到视频分类的目的。但是这些方法需要大量的数据;数据集涉及动词和名词范围很小;目前的方法被设计出来用于表示短的视频序列,典型的就只有几秒钟。 2. 相比之下,提出的方法可以关注更长的时间序列;同时不需要利用手工标记 3. 无监督学习:RNN,VAE-style loss, GAN-style loss, SV2P, SVGLP, SAVP, MoCoGAN. 基于gan的方法。 4. 我们与无监督学习的不同之处在于,我们使用BERT模型,没有任何显式的随机潜在变量,应用于从视频中导出的视觉标记。 5. 我们的模型不是像素的生成模型,而是像素衍生出来的特征的生成模型 6. 自监督学习: 避免学习的困难联合模型p (x1: T),它已成为流行的学习条件的模型形式p (xt + 1: T jx1: T) 我们的信号分割成两个或多个块,如灰度、颜色、或前一帧和下一个帧 7. 我们的方法是类似的,除了我们使用 量化的视觉文字 而不是像素。 8. 此外,虽然我们学习了一个 集合条件分布 ,我们的模型是一个适当的 联合生成模型 Cross-modal learning. 9. 视频的多模态特性也成为监督学习视频表示的广泛来源,我们的论文就是建立在这个基础上的。 10. 由于大多数视频包含同步的音频和视觉信号,这两种模式可以互相监督,以学习强大的自我监督视频表示。 11. 在这项工作中,我们使用语音(由ASR提供接口把声音转成文字)而不是低层次声音作为跨模态监控的来源。 Natural language models 12. 我们以最近在NLP社区的进展为基础,在那里,大型语言模型如ELMO[22]和BERT[6]已经为各种NLP任务显示了最先进的结果,包括单词级(例如词性标记)和句子级(例如语义分类)。 13. 然后将BERT模型扩展到多语言数据的预训练 14. 我们的论文建立在BERT模型的基础上,以捕获语言和视觉领域的结构。 Image and video captioning. 15. 最近有很多关于图像字幕的工作(例如,[11,8,15]),这是一个形式p(y|x)的模型,其中y是手动提供的字幕,x是图像。 16. 也有一些工作在视频字幕,使用手动提供的时间分割或估计分段 17. 我们用关节p(x|y)建模并将其应用于视频字幕,并达到最先进的结果 Instructional videos. 18. 各种各样的论文(例如,[16,2,10,38,39])都训练了模型来分析教学视频,比如烹饪。 19. 我们不同于这项工作,我们不使用任何手动标记,我们学习了一个大规模生成模型的文字和(离散化)视觉信号。Model 1. 为了获取语序信息,我们可以给每个单词加上它在句子中的位置。 2. BERT模型学习每个单词标记和这些标记的嵌入,然后对嵌入向量求和,以获得每个标记的连续表示。 3. 在实践中,我们可以通过采样位置和训练语句随机优化logloss(根据f函数预测的softmax计算) 4. 我们通常不仅简单地建模扩展序列,而且对两个句子之间的关系(是连续的,还是随机选择的两个句子) 5. 通过将两个句子连接在一起,BERT可以被扩展成两个句子的模型。 6. 对应的关节模型可表示为p(x;y;c),其中x是第一个句子,y是第二个句子,c = {0,1}是一个标签,指示源文档中的句子是独立的还是连续的。 7. 为了与原文保持一致,我们还在序列的末尾添加了一个[SEP]标记,尽管它并不是严格需要的。 8. 本例中对应的类标签是c = 1,表示x和y是连续的。 The VideoBERT model 1. 为了将BERT扩展到视频,我们仍然可以利用预先训练好的语言模型和可扩展的实现来进行推理和学习,我们决定进行最小的更改,并将原始的可视数据转换为离散的令牌序列。 2. 为此,我们建议使用一个预先训练的模型,对来自视频的特征应用分层向量量化来生成一个“视觉词汇”序列。 3. 除了简单之外,这种方法还鼓励模型在视频中关注高级语义和更长期的时间动态。 4. 这与大多数现有的视频表示学习的自我监督方法形成了对比,后者学习低水平的属性,如局部纹理和动作 5. 我们可以将语言语句(来自ASR视频)与视觉语句结合起来生成数据 6. 虽然这个完形填空任务很自然地扩展到语言和视觉标记序列,但是应用下一个句子预测任务(如BERT所使用的)就不那么直接了。 7. 我们提出了一个语言-视觉对齐任务,其中我们使用[CLS]标记的最终隐藏状态来预测语言句子是否与视觉句子在时间上对齐。 8. 请注意,这是语义关联的一个嘈杂指标,因为即使在教学视频中,说话者可能指的是一些视觉上不存在的东西。 9. 为了解决这个问题,我们首先将相邻的句子随机连接成一个长句子,这样即使两个句子在时间上没有很好的对齐,模型也可以学习语义对应。 10. 其次,因为即使是相同的动作,不同视频之间的状态转换速度也会有很大的差异,所以我们对视频标记随机选取1到5步的次采样率。 11. 这不仅有助于模型对视频速度的变化更加健壮,而且还允许模型捕获更大时间范围内的时间动态,并学习更长期的状态转换。 12. 我们把对视频和文本结合的其他方式的研究留给未来的工作。 13. 总的来说,我们有三种对应于不同输入数据模式的训练机制:纯文本、纯视频和纯视频文本。 14. 对于纯文本和纯视频,标准的掩码完成目标用于训练模型。 15. 对于文本-视频,我们使用前面描述的语言-视觉对齐分类目标。 16. 总体培训目标是个体目标的加权和。 17. 文本目标迫使VideoBERT做好语言建模;视频目标迫使其学习“视频语言模型”,该模型可用于学习动态和预测;而文本-视频的客观要求它学习这两个领域之间的对应关系。 18. 一旦我们训练了这个模型,我们就可以在各种下游任务中使用它,在这项工作中,我们定量地评估两个应用程序。 19. 在第一个应用程序中,我们将其视为概率模型,并要求它预测或输入被掩盖的符号。 20. 我们在节中对此进行了说明,在这里我们执行“零镜头”分类。 21. 在第二个应用程序中,我们提取了[CLS]令牌的预测表示(来自模型的内部激活),并使用该密集向量表示整个输入。 22. 这可以与其他特征相结合,这些特征来自于下游监督学习任务的输入。Experiments and Analysis 1. 在语言和视觉领域的深度学习模型,在不断增长的大型数据集中,一直显示出显著的性能提升。 2. 例如,“大”BERT模型(我们使用的)是在BooksCorpus(8亿字)和英语维基百科(2500亿字)的连接上预先训练的。 3. wefocus on cooking videos specifically 4. 不幸的是,这样的数据集相对较小,所以 我们转向 YouTube 来收集大规模的视频数据集 进行训练。 5. 我们使用YouTube视频注释系统从YouTube上提取了一组公开的烹饪视频,检索与“烹饪”和“食谱”相关的主题的视频。 6. 收集的视频中,删除了15分钟以上视频。最终得到213K个视频。该数据集的总持续时间为23186小时,大约966天。已有YouCook II 要大两个数量级,YouCook II 是由2K个视频组成,总时长为176个小时 7. 为了从视频中获取文本,我们使用YouTube Data API[1]提供的YouTube自动语音识别(ASR)工具包来检索带有时间戳的语音信息。API返回单词序列和预测的语言类型。在312K的视频中,有180K是可以通过API检索到的ASR,预计有120K是英文的。在我们的实验中,虽然我们将 所有的视频都用于纯 - 视频目的 ,但我们只将来自 英语 ASR 的文本用于 VideoBERT 的纯 - 文本和视频 - 文本目的 。 8. 我们在YouCook II数据集[38]上评估了VideoBERT,它包含了2000个YouTube视频,平均时长分钟,总共176个小时。 9. 我们使用提供的数据集分割,其中1333个视频用于培训,457个用于验证。 Video and Language Preprocessing 1. 对于每个输入的视频,我们以每秒20帧的速度采样,并在视频上创建30帧(秒)不重叠窗口的剪辑。 2. 对于每个30帧的剪辑,我们应用一个预先训练的视频卷积网络来提取其特征。 3. 在这项工作中,我们使用了S3D[34],它将可分离的时域卷积添加到Inception网络[25]骨干网中。 4. 我们在最终的线性分类器之前进行特征激活,然后应用3D平均池得到一个1024维的特征向量。 5. 我们在动力学[9]数据集上对S3D网络进行了预培训,该数据集涵盖了来自YouTube视频的广泛操作,并作为每个单独片段的通用表示。 6. 我们用层次知识表示视觉特征。我们通过可视化地检查集群的一致性和代表性来调整层次级别d的数量和每级别k的集群数量。我们设置d=4, k = 12,得到124 = 20736个簇。图4说明了这个“矢量量化”过程的结果 7. 对于每个ASR单词序列,我们使用一个现成的基于lstm的语言模型添加标点符号,从而将单词流分解为句子。对于每个句子,我们遵循BERT[6]中的标准文本预处理步骤,并将文本标记为单词[33]。我们使用BERT的作者提供的相同词汇表,其中包含30,000个令牌 8. 不像语言可以自然地分解成句子,它不清楚如何将视频分解成语义连贯的片段。我们使用一个简单的启发式方法来解决这个问题:当一个ASR语句可用时,它与开始和结束时间戳相关联,并且我们将属于那个时间段的视频标记作为一个片段。当ASR不可用时,我们简单地将16个令牌视为一个段。 Model Pre-training 1. 我们从文本预先训练的checkpoint 初始化BERT权重。具体来说,我们使用由[6]的作者发布的BERTLARGE模型,使用相同的主干架构:它有24层Transformer块,每个Transformer块有1024个隐藏单元和16个self-attention head。 2. 我们为每个新的“可视单词”在单词嵌入查找表中添加了20736个条目,从而增加了对视频标记的支持。我们使用S3D特性从相应的簇中心初始化这些条目。输入嵌入在训练前被冻结。 3. 我们的模型训练过程在很大程度上遵循BERT的设置:我们在Pod配置中使用了4个Cloud TPUs,总批处理大小为128,我们训练了50万个迭代,或大约8个epoch的模型。我们使用Adam优化器,初始学习率为1e-5,线性衰减学习率计划。培训过程大约需要2天。 Zero-shot action classification 1. 一旦pretrained, VideoBERT模型可以用于“zero-shot”分类新数据集,如YouCook II(通过“zero-shot”我们指的是模型不是对准YouCook II具有相同标签的数据也没有本体用于YouCook II)。更确切地说,我们要计算p (y|x)其中x是视觉符号序列,y是一个序列的单词。由于模型被训练来预测句子,我们将y定义为固定的句子,“现在让我向您展示如何[屏蔽][屏蔽]”,并分别从第一个和第二个屏蔽槽中预测的标记中提取动词和名词标签。 2. 为了进行定量评估,我们使用了YouCook II数据集。在[37]中,作者为YouCook II的验证集收集了63个最常见对象的ground truth边界框。然而,对于行为没有ground truth标签,许多其他常见对象也没有标签。因此,我们收集来自ground truth标题的动作和对象标签来解决这个缺点。我们在ground truth标题上运行一个现成的词性标记来检索100个最常见的名词和45个最常见的动词,并使用它们来派生ground truth标签。虽然VideoBERT的词块词汇表为它提供了有效执行开放词汇表分类的能力,但它因此更有可能做出语义上正确的预测,而这些预测并不完全符合更有限的ground true。因此,我们报告了排名前1和前5的分类准确性指标,后者旨在缓解这个问题,我们将更复杂的评估技术留给未来的工作。最后,如果有一个以上的动词或名词与一个视频片段相关联,我们认为预测是正确的,如果它符合其中任何一个。我们报告了YouCook II验证集的性能 3. 我们也使用来自文本BERT模型的先验语言,这在烹饪视频中没有得到很好的调整。我们可以看到VideoBERT比两个基线都好得多。正如所料,VideoBERT的语言先验适用于烹饪句子,并且优于vanilla BERT模型。 4. 然后,我们与使用YouCook II的训练分割训练的完全监督分类器进行比较。我们使用预先计算好的S3D特性(与VideoBERT的输入相同),随着时间的推移应用平均池,然后使用线性分类器。表1显示了结果。正如我们所看到的,supervised framework在动词准确性方面超过了VideoBERT,这并不奇怪,因为VideoBERT拥有一个非常开放的词汇表。(有关操作标签的模糊性,请参见图5。)然而,排名前5的精度指标显示,VideoBERT在没有使用任何来自YouCook II的监督的情况下,实现了与完全监督的S3D基线相当的性能,这表明该模型能够在这种“0次学习”设置下进行竞争。 Benefits of large training sets 1. 我们还研究了训练前数据集大小的影响。在这个实验中,我们从训练前的视频集中随机选取10K、50K和100K的子集,使用与上面相同的设置,对相同的epoch进行训练前的VideoBERT。表2显示了性能。我们可以看到, 准确性随着数据量的增加而单调增加,没有饱和的迹象 。这表明VideoBERT可能会受益于更大的训练前数据集。 Transfer learning for captioning 1. 我们进一步证明了VideoBERT作为特征提取器的有效性。 2. 我们使用与他们相同的模型,即变压器编码器-解码器,但我们将编码器的输入替换为上面描述的VideoBERT派生的特性。 3. 我们还将视频沙漠功能与平均汇集的S3D功能连接起来;作为基准,我们也考虑只使用S3D功能而不使用VideoBERT。 4. 我们设置transformer层数为2,隐藏单元大小为128,dropout rate为。我们在训练分割上使用5倍交叉验证来设置超参数,并在验证集上报告性能。我们训练了批大小为128的40K迭代的模型。我们使用相同的亚当优化在VideoBERT前训练,并设置初始学习率为1e-3与线性衰减时间表。 Discussion and conclusion 1. 使用空间细粒度的视觉表示非常重要,而不是只在框架或剪辑级别工作,这样我们就可以区分单个对象及其属性。 2. 我们计划在其他视频理解任务和烹饪之外的其他领域评估我们的方法。
中国建筑行业作为中国经济发展的领头羊,使其健康发展才是国家的重中之重。下文是我为大家搜集整理的关于建筑 毕业 论文3000字的内容,欢迎大家阅读参考! 浅析
你好:这应该是生物里面的问题吧;增长问题;
毕业论文提纲范文 编写提纲的步骤: (一)确定论文提要,再加进材料,形成全文的概要 论文提要是内容提纲的雏型。 一般书、教学参考书都有反映全书内容的提要
摘要,关键字,问题重述,模型假设,问题分析,模型建立,模型求解,模型检验,模型优化,参考文献,附录
建立模型法。论文中建立模型属于建立模型法,是科学研究的基本方法之一。论文,是指进行各个学术领域的研究和描述学术研究成果的文章,简称论文。