源码聚合搜索 - 壹搜网为您找到"

ICML

"相关结果 160条

[ICML19]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks_gdtop818的博客-CSDN博客

个人觉得idea很不错,中心思想是直接对整体架构进行scale以达到减少参数的目的,也是Quoc V. Le刚发表在ICML19的文章,并且在Imagenet达到了最新的state-of-art级别的work。pytorch版本 Abstract 卷积神经网络(ConvNets)通常是在固定的资源预
blog.csdn.net

ICML 2023 | 复旦和Meta提出Open-VCLIP:兼顾时序建模与开集识别的视频理解模型-CSDN博客

点击下方卡片,关注“CVer”公众号 AI/CV重磅干货,第一时间送达 点击进入—>【目标检测和Transformer】交流群 Open-VCLIP: TransformingCLIPto an Open-vocabulary Video Model via Interpolated Weight
blog.csdn.net

ICML 2023 | ICE-Pick: 用于DNN的高效迭代剪枝-腾讯云开发者社区-腾讯云

来源:ICML 2023论文链接:https://openreview.net/pdf?id=fWYKVtf7lu作者:Wenhao Hu, Perry Gibson, José Cano内容整理:王妍 引言 剪枝是深度神经网络 (DNN) 的主要压缩方法之一,从 DNN 模型中删除不太相关的参数以
cloud.tencent.com

ICML2020 | Retro*: 通过神经引导的A*搜索学习逆合成设计_retro模型代码_DrugAI的博客-CSDN博客

今天给大家介绍的是来自佐治亚理工学院的Le Song课题组发表在ICML2020上的关于逆合成规划的一篇文章。在本文中,作者提出了一种基于神经的类A*算法,称为Retro*,它能有效地找到高质量的合成路线。在基准USPTO数据集上进行的实验表明,作者提出的方法在成功率和解决方案质量方面均优于现有的最
blog.csdn.net

ICML联邦学习论文解读 SCAFFOLD: Stochastic Controlled Averaging for Federated Learning - ICode9

论文解读:SCAFFOLD: Stochastic Controlled Averaging for Federated Learning 作者:Sai Praneeth Karimireddy, Satyen Kale, Mehryar Mohri,Sashank J. Reddi, Sebast
www.icode9.com

最新8篇ICML2020投稿论文:自监督学习、联邦学习、图学习、数据隐私、语言模型、终身学习…..._深度学习技术前沿的博客-CSDN博客

关注上方“深度学习技术前沿”,选择“星标公众号”, 资源干货,第一时间送达! 机器学习顶会 ICML已经 结束了 2020 年的论文投稿,作为最“硬核”的机器学习会议之一,由于 ICML 并没有硬性限制投稿论文在 ArXiv 上的发表,所以部分投稿文章也提前地放到了 ArXiv 上。这些论文来自牛津
blog.csdn.net

ICML2020 | G2Gs:不依赖模板的的逆合成预测新框架 - 腾讯云开发者社区-腾讯云

今天给大家介绍的是来自北京大学计算机系本科生史晨策等发表在ICML2020上的关于逆合成预测的一篇文章。在本文中,作者通过将目标分子图转化为一组反应物分子图,提出一种称为G2Gs的不依赖模板的框架以解决逆合成预测问题,该方法性能优越,排除了对领域知识的需要,并且具有很好的扩展性。 1 背景 计算化学
cloud.tencent.com

ICML 2023 LoSparse:低秩近似和结构化剪枝的有机组合-腾讯云开发者社区-腾讯云

标题:ICML 2023 | LoSparse:低秩近似和结构化剪枝的有机组合 收录于合集 #低秩近似 #ICML 2023 #结构化剪枝 1. 论文信息 Untitled 标题:LoSparse: Structured Compression of Large Language Models ba
cloud.tencent.com

ICML 最佳论文提名论文:理解词嵌入类比行为新方式 - 腾讯云开发者社区-腾讯云

选自arxiv 作者:Carl Allen、Timothy Hospedales 机器之心编译 参与:王子嘉、张倩 前不久,ICML大会在美国举办。大会放出了最佳论文等奖项,还有7篇最佳论文荣誉提名论文,本文便是其中的一篇。在这篇论文中,来自爱丁堡大学的研究者提出了一种解释词嵌入类比(如「女人之于王
cloud.tencent.com

ICML2023 & 新加坡国立 | 一项关于 Transformer参数设置 的深度研究-腾讯云开发者社区-腾讯云

引言  今年是Transformer的六周年生日,目前原文引用量已超四万,在应用方面,几乎所有的模型架构都有它的影子,并遵从着Transformer的基础配置(宽度设置为768,深度设置为12)。但您有没有质疑过:Transformer的配置是怎么来的?Transformer的配置能够适合所有的应用
cloud.tencent.com