• 回答数

    3

  • 浏览数

    335

芊芊寻2013
首页 > 学术论文 > elmo论文期刊

3个回答 默认排序
  • 默认排序
  • 按时间排序

小猴子@219

已采纳

谎言、夸张、犯罪行为、肆无忌惮的讽刺、另类事实、假新闻……不,我们不是在谈论2017年的政治。这是2017年的科学世界。

过去一年,数百篇科学论文被从专业期刊上撤回。在涉及这些撤回的大多数案件中,原因是作者自己发现的实验方法中的一个无辜但草率的错误。但对于相当多的论文来说,这些撤回反映了科学上的不端行为,以及对数据进行调整或完全编造的不那么无辜的企图。以下是从2017年的五个值得注意的缩回,摘自缩回观察博客。

如此多的缩回,如此少的时间。还有更多被收回的论文几乎进入了2017年的“前五名”名单,比如有几篇试图“证明”疫苗和自闭症之间的联系。其中一篇题为“孤独症谱系障碍和汞研究的系统评估揭示了孤独症研究中的利益冲突和透明度的必要性”,讽刺的是:作者没有揭示他们与参与展示孤独症疫苗关联的组织有关联的事实。

在其他地方为了证明某些期刊会发表任何东西,博主Neuroskeptic设法让四家期刊接受了一项明显虚构的研究,这项研究由卢卡斯·麦戈尔格和安妮特·金撰写,内容是关于“midi chlorians”,即在《星球大战》中赋予绝地力量的智能实体,然后是“撰写科学文章的艺术”,这篇文章发表在《科学通讯》杂志上,被引用近400次。引文是真实的,报纸和期刊(关于通信的“S”)不存在。[“星球大战”科技:8项科幻发明及其现实生活中的对应物]

花了35年的时间,但布鲁斯·勒卡特终于被召唤为猫,他是。勒卡特,作为一只猫,写了一篇相当尖锐的评论大卫刘易斯写的文章,发表在澳大利亚哲学杂志。刘易斯于2001年去世,是一位出生于美国的哲学家,他最著名的观点是模态现实主义,即所有可能的世界都和实际的世界一样真实。也许有些世界,比如说,猫可以写……也就是说,写得通俗易懂……好吧,用猫主人以外的人能理解的语言写得通俗易懂。也许这样一个世界存在于Lewis的脑海里,因为他似乎是勒卡特,写着对自己的批判。(哲学家是一群有趣的人。)

这个35岁的诡计——在猫年里会超过100岁——是刘易斯那一代的一些哲学家知道的一个内部笑话,包括俄亥俄州哥伦布市俄亥俄多米尼加大学的迈克尔多尔蒂。Dougherty目前正在写一本关于科学完整性的书,他要求《华尔街日报》让人们知道Le Catt是刘易斯的化名,这样,如果没有别的东西的话,年轻一代的哲学家就会知道刘易斯在批评自己。假造到三级

如果一篇有假作者和假资助者的论文通过假同行评议的方式发表,那它还会是假的,还是所有的假货都会被注销?似乎是一个哲学问题,最好由布鲁斯·勒卡特处理(见上图)。以下是最广为人知的事实:2015年,一组中国科学家在《分子神经科学》杂志上发表了一篇题为“核仁素通过胶质母细胞瘤中的TGF-β受体I促进TGF-β信号传导启动”的文章(不要太担心这个标题的意思,因为正如前面提到的,没有太多的事实与此相关。)这项研究。)

在2017年6月,杂志收回了这篇文章,因为论文中所述的资金来源不是资金来源;其中一位合著者确认他没有参与论文的研究或写作,对研究一无所知;资深作者确认他没有参与提交过程,并且没有这位学生最终发表了五篇论文,都是关于人们在意大利餐厅自助餐中吃披萨的。

这篇博文现在被删除,引起了许多科学家对Wansink自己研究的质量和完整性的担忧。因此他们进行了调查,发现了多年来Wansink的方法论和统计分析中的许多问题。康奈尔大学也对万辛克的研究进行了调查,发现了所谓的“错误”,但没有发现不当行为。Wansink的50多篇论文正面临着严密的审查,在过去的一年里,Wansink已经纠正并重新发表了至少8篇文章,并收回了4篇文章,其中包括《美国医学会儿科杂志》(JAMA Pediatrics)关于Elmo和Apple的一篇文章。这就是曲奇碎裂的方式。

编者按:2018年9月20日,万辛克从康奈尔大学辞职,此前一项内部调查发现,他“在研究和学术上犯有学术不端行为,包括歪曲研究数据、有问题的统计技术、未能正确记录根据康奈尔大学教务长迈克尔科特利科夫(Michael Kotlikoff)的一份声明,保持研究成果和不恰当的作者身份。

以幽默的方式关注Christopher Wanjek@Wanjek,获取健康和科学方面的每日推文。Wanjek是《工作中的食物》和《坏药》的作者。他的专栏《坏药》定期出现在《生命科学》上

316 评论

小燕子an

量子位 出品 | 公众号 QbitAI

2018,仍是AI领域激动人心的一年。

这一年成为NLP研究的分水岭,各种突破接连不断;CV领域同样精彩纷呈,与四年前相比GAN生成的假脸逼真到让人不敢相信;新工具、新框架的出现,也让这个领域的明天特别让人期待……近日,Analytics Vidhya发布了一份2018人工智能技术总结与2019趋势预测报告,原文作者PRANAV DAR。量子位在保留这个报告架构的基础上,对内容进行了重新编辑和补充。这份报告总结和梳理了全年主要AI技术领域的重大进展,同时也给出了相关的资源地址,以便大家更好的使用、查询。报告共涉及了五个主要部分:

下面,我们就逐一来盘点和展望,嘿喂狗~

2018年在NLP 历史 上的特殊地位,已经毋庸置疑。

这份报告认为,这一年正是NLP的分水岭。2018年里,NLP领域的突破接连不断:ULMFiT、ELMo、最近大热的BERT……

迁移学习成了NLP进展的重要推动力。从一个预训练模型开始,不断去适应新的数据,带来了无尽的潜力,甚至有“NLP领域的ImageNet时代已经到来”一说。

正是这篇论文,打响了今年NLP迁移学习狂欢的第一枪。论文两名作者一是创始人Jeremy Howard,在迁移学习上经验丰富;一是自然语言处理方向的博士生Sebastian Ruder,他的NLP博客几乎所有同行都在读。两个人的专长综合起来,就有了ULMFiT。想要搞定一项NLP任务,不再需要从0开始训练模型,拿来ULMFiT,用少量数据微调一下,它就可以在新任务上实现更好的性能。

他们的方法,在六项文本分类任务上超越了之前最先进的模型。详细的说明可以读他们的论文:网站上放出了训练脚本、模型等:

这个名字,当然不是指《芝麻街》里那个角色,而是“语言模型的词嵌入”,出自艾伦人工智能研究院和华盛顿大学的论文Deep contextualized word representations,NLP顶会NAACL HLT 2018的优秀论文之一。

ELMo用语言模型(language model)来获取词嵌入,同时也把词语所处句、段的语境考虑进来。

这种语境化的词语表示,能够体现一个词在语法语义用法上的复杂特征,也能体现它在不同语境下如何变化。

当然,ELMo也在试验中展示出了强大功效。把ELMo用到已有的NLP模型上,能够带来各种任务上的性能提升。比如在机器问答数据集SQuAD上,用ELMo能让此前最厉害的模型成绩在提高个百分点。

这里有ELMo的更多介绍和资源:

它由Google推出,全称是 B idirectional E ncoder R epresentations from T ransformers,意思是来自Transformer的双向编码器表示,也是一种预训练语言表示的方法。从性能上来看,没有哪个模型能与BERT一战。它在11项NLP任务上都取得了最顶尖成绩,到现在,SQuAD 前10名只有一个不是BERT变体:

如果你还没有读过BERT的论文,真的应该在2018年结束前补完这一课:另外,Google官方开源了训练代码和预训练模型:如果你是PyTorch党,也不怕。这里还有官方推荐的PyTorch重实现和转换脚本:

BERT之后,NLP圈在2018年还能收获什么惊喜?答案是,一款新工具。

就在上周末,Facebook开源了自家工程师们一直在用的NLP建模框架PyText。这个框架,每天要为Facebook旗下各种应用处理超过10亿次NLP任务,是一个工业级的工具包。

(Facebook开源新NLP框架:简化部署流程,大规模应用也OK)

PyText基于PyTorch,能够加速从研究到应用的进度,从模型的研究到完整实施只需要几天时间。框架里还包含了一些预训练模型,可以直接拿来处理文本分类、序列标注等任务。

想试试?开源地址在此:

它能主动打电话给美发店、餐馆预约服务,全程流畅交流,简直以假乱真。Google董事长John Hennessy后来称之为“非凡的突破”,还说:“在预约领域,这个AI已经通过了图灵测试。”Duplex在多轮对话中表现出的理解能力、合成语音的自然程度,都是NLP目前水平的体现。如果你还没看过它的视频……

NLP在2019年会怎么样?我们借用一下ULMFiT作者Sebastian Ruder的展望:

今年9月,当搭载BigGAN的双盲评审中的ICLR 2019论文现身,行家们就沸腾了: 简直看不出这是GAN自己生成的 。

在计算机图像研究史上,BigGAN的效果比前人进步了一大截。比如在ImageNet上进行128×128分辨率的训练后,它的Inception Score(IS)得分,是之前最佳得分分 3倍 。

除了搞定128×128小图之外,BigGAN还能直接在256×256、512×512的ImageNet数据上训练,生成更让人信服的样本。

在论文中研究人员揭秘,BigGAN的惊人效果背后,真的付出了金钱的代价,最多要用512个TPU训练,费用可达11万美元,合人民币76万元。

不止是模型参数多,训练规模也是有GAN以来最大的。它的参数是前人的2-4倍,批次大小是前人的8倍。

研究论文:

前前后后,团队只用了16个AWS云实例,每个实例搭载8块英伟达V100 GPU,结果比Google用TPU Pod在斯坦福DAWNBench测试上达到的速度还要快40%。这样拔群的成绩,成本价只需要 40美元 ,在博客中将其称作人人可实现。

相关地址: 博客介绍:

今年8月,英伟达和MIT的研究团队高出一个 超逼真 高清视频生成AI。

只要一幅动态的语义地图,就可获得和真实世界几乎一模一样的视频。换句话说,只要把你心中的场景勾勒出来,无需实拍,电影级的视频就可以自动P出来:

除了街景,人脸也可生成:

这背后的vid2vid技术,是一种在生成对抗性学习框架下的新方法:精心设计的生成器和鉴别器架构,再加上时空对抗目标。

这种方法可以在分割蒙版、素描草图、人体姿势等多种输入格式上,实现高分辨率、逼真、时间相干的视频效果。

好消息,vid2vid现已被英伟达开源。

研究论文:

GitHub地址

相关地址

相关地址

290 评论

Tracy猪猪

根据网友Elisabeth M Bik提供的论文图片分析情况, 天津医科大学天津生命科学研究中心Hua Tang 课题组40多篇SCI论文涉嫌图片重复使用问题 ,大部分论文由国自然基金资助。具体情况如下: No、1 论文题目: Downregulation of TNFRSF19 and RAB43 by a novel miRNA, miR-HCC3, promotes proliferation and epithelial–mesenchymal transition in hepatocellular carcinoma cells 论文作者: LiMing Guo, Rui Gao, JianChen Gan, YaNan Zhu, JunYi Ma, Ping Lv, Yi Zhang, ShengPing Li,  Hua Tang 出版期刊及年份: Biochemical and Biophysical Research Communications(2020) 涉嫌图片重复使用情况: 参考链接: No、2 论文题目: TCDD-induced antagonism of MEHP-mediated migration and invasion partly involves aryl hydrocarbon receptor in MCF7 breast cancer cells 论文作者: Anqi Shan, Ling Leng, Jing Li, Xiu-mei Luo, Ya-jiao Fan, Qiaoyun Yang, Qun-hui Xie, Yang-sheng Chen, Chun-sheng Ni, Li-ming Guo,  Hua Tang , Xi Chen, Nai-jun Tang 出版期刊及年份:Journal of Hazardous Materials (2020) 涉嫌图片重复使用情况: 参考链接: No、3 论文题目: miR-30a reverses TGF-β2-induced migration and EMT in posterior capsular opacification by targeting Smad2 论文作者:  Hua Li, Hui Song, Xiaoyong Yuan, Jun Li,  Hua Tang 出版期刊及年份: Molecular Biology Reports(2019) 涉嫌图片重复使用情况: 参考链接: No、4 论文题目: HBV-encoded miR-2 functions as an oncogene by downregulating TRIM35 but upregulating RAN in liver cancer cells 论文作者:  Lili Yao , Yadi Zhou , Zhenhua Sui , Yanling Zhang , Yankun Liu , Hong Xie , Huijie Gao , Hongxia Fan , Yi Zhang , Min Liu , Shengping Li ,  Hua Tang 出版期刊及年份: EBioMedicine (2019) 涉嫌图片重复使用情况: 参考链接: No、5 论文题目: miR-639 Expression Is Silenced by DNMT3A-Mediated Hypermethylation and Functions as a Tumor Suppressor in Liver Cancer Cells 论文作者:  Jing Xiao, Yankun Liu, Fuxia Wu, Ruiyan Liu, Yongli Xie, Qian Yang, Yufeng Li, Min Liu, Shengping Li,  Hua Tang 出版期刊及年份: Molecular Therapy (2019) 涉嫌图片重复使用情况: 参考链接: No、6 论文题目: GRSF1-mediated MIR-G-1 promotes malignant behavior and nuclear autophagy by directly upregulating TMED5 and LMNB1 in cervical cancer cells 论文作者:  Zhen Yang, Qi Sun, Junfei Guo, Shixing Wang, Ge Song, Weiying Liu, Min Liu &  Hua Tang 出版期刊及年份: Autophagy (2019) 涉嫌图片重复使用情况: 参考链接: No、7 论文题目: INPP1 up‐regulation by miR‐27a contributes to the growth, migration and invasion of human cervical cancer 论文作者:  Pu Li, Qiaoge Zhang,  Hua Tang 出版期刊及年份:J Cell Mol Med(2019) 涉嫌图片重复使用情况: 参考链接: No、8 论文题目: MiR-HCC2 Up-regulates BAMBI and ELMO1 Expression to Facilitate the Proliferation and EMT of Hepatocellular Carcinoma Cells 论文作者:  Jianying Yi, Yajie Fan, Le Zhang, Hong Wang, Ting Mu, Hong Xie, Huijie Gao, Min Liu, Shengping Li,  Hua Tang 出版期刊及年份:Journal of Cancer (2019) 涉嫌图片重复使用情况: 参考链接: 由于版面问题,本文仅列举了2020年和2019年出版的论文,其实远远不止这个数,一共有40多篇,具体情况可以查看这个链接:

87 评论

相关问答

  • 有期刊号的期刊

    正式期刊:由国家新闻出版署与国家有关部委在商定的数额内审批,并编入“国内统一刊号”。国内外公开发行的正式期刊具有国内统一刊号(CN)和国际刊号(ISSN),一号

    兔宝宝装饰 3人参与回答 2023-12-11
  • 论文期刊名称期刊号

    论文期刊号可以去新闻出版总署查询。 论文期刊号就是论文发表期刊的刊号,刊号是出版物的身份证,所有刊号都具有唯一性,刊号也是我们选择发表刊物的重要标志,只有具备刊

    壮儿象象 5人参与回答 2023-12-11
  • 期刊国家级期刊

    核心期刊有:国内七大核心期刊体系,1、北京大学图书馆“中文核心期刊”;2、南京大学“中文社会科学引文索引(CSSCI)来源期刊”;3、中国科学技术信息研究所“中

    hellosnow. 6人参与回答 2023-12-07
  • 期刊期刊论文

    在期刊上面发表的论文。期刊是指在知网、万方、维普等数据库收录的杂志。你的论文会发表在这上面,你要进行投稿。

    xiaoze2000 5人参与回答 2023-12-12
  • 理财周刊期刊万维期刊

    浏览器中搜索国家图书馆网站1、搜索“国家图书馆”进入国家图书馆官方网站首页,在banner下方右侧点击“读者门户登陆注册”链接打开登录/注册页面。2、在页面右侧

    Charles2Lillian 3人参与回答 2023-12-09