合作关系了。"],[20,"n","24:"9u95"|direction:"ltr"],[20,"n","24:"3DLQ"|direction:"ltr"],[20,{"gallery":"https://uploader.shimo.im/f/pXYVykAQsQlMA1U8.png!thumbnail"},"29:0|30:0|3:"1128"|4:"auto"|crop:""|frame:"none"|ori-height:"371"|ori-width:"1128"],[20,"n","24:"ynW5"|direction:"ltr"],[20,"n","24:"wTHy"|direction:"ltr"],[20,"NeurIPS会议此前开展过一致性实验,对于平均分在5到6.5之间的论文,录用结果基本就是随机的,取决于你碰到的审稿人。"],[20,"n","24:"o9yT"|direction:"ltr"],[20,"n","24:"8waN"|direction:"ltr"],[20,"比如说有个人的论文结果是9665,如果他没碰到给他9分的审稿人,那结果必然是reject,只不过他刚好碰到了伯乐,并且扭转了审稿结果。"],[20,"n","24:"mQxp"|direction:"ltr"],[20,"n","24:"cvMd"|direction:"ltr"],[20,"最后,恭喜那些论文录用的科研人,助力推动人工智能研究的发展!"],[20,"n","24:"DUdg"|direction:"ltr"],[20,"n","24:"AKma"|direction:"ltr"],[20,"下面是一些在社交媒体上分享已录用的论文。"],[20,"n","24:"QnIK"|direction:"ltr"],[20,"n","24:"ntPO"|direction:"ltr"],[20,"IJCAI 2023接收论文"],[20,"n","24:"lSLz"|32:1|direction:"ltr"],[20,"n","24:"Z8WQ"|direction:"ltr"],[20,"端到端抗噪语音识别中多任务学习的梯度修正","8:1"],[20,"n","24:"WaNI"|direction:"ltr"],[20,"n","24:"mvk6"|direction:"ltr"],[20,"在下游语音自动识别系统(ASR)中,语音增强学习策略(SE)被证明能够有效地减少噪声语音信号产生的噪声,该系统采用多任务学习策略对这两个任务进行联合优化。"],[20,"n","24:"Uzhk"|direction:"ltr"],[20,"n","24:"XHwk"|direction:"ltr"],[20,"然而,通过 SE 目标学习的增强语音并不总是产生良好的 ASR 结果。"],[20,"n","24:"vkdy"|direction:"ltr"],[20,"n","24:"Vyuv"|direction:"ltr"],[20,"从优化的角度来看,自适应任务和自适应反应任务的梯度之间有时会存在干扰,这会阻碍多任务学习,最终导致自适应反应性能不理想。"],[20,"n","24:"QfZj"|direction:"ltr"],[20,"n","24:"vqRv"|direction:"ltr"],[20,{"gallery":"https://uploader.shimo.im/f/2s6aPmCc2tCrjyU8.png!thumbnail"},"29:0|30:0|3:"822"|4:"auto"|crop:""|frame:"none"|ori-height:"176"|ori-width:"822"],[20,"n","24:"u3sz"|direction:"ltr"],[20,"论文链接:"],[20,"https://arxiv.org/pdf/2302.11362.pdf","16:"https%3A%2F%2Farxiv.org%2Fpdf%2F2302.11362.pdf"],[20,"n","24:"gBLH"|direction:"ltr"],[20,"n","24:"8JCM"|direction:"ltr"],[20,"这篇论文提出了一种简单而有效的梯度补偿(GR)方法来解决噪声鲁棒语音识别中任务梯度之间的干扰问题。"],[20,"n","24:"9NMT"|direction:"ltr"],[20,"n","24:"RP7W"|direction:"ltr"],[20,"具体来说,首先将 SE 任务的梯度投影到一个与 ASR 梯度呈锐角的动态曲面上,以消除它们之间的冲突,协助 ASR 优化。"],[20,"n","24:"JUvW"|direction:"ltr"],[20,"n","24:"biew"|direction:"ltr"],[20,"此外,自适应地调整两个梯度的大小,以防止主导 ASR 任务被 SE 梯度误导。"],[20,"n","24:"PLKf"|direction:"ltr"],[20,"n","24:"zZv2"|direction:"ltr"],[20,"实验结果表明,该方法较好地解决了梯度干扰问题,在多任务学习基线上,在 RATS 和 CHiME-4数据集上分别实现了9.3% 和11.1% 的相对词错误率(WER)降低。我们的代码可以在 GitHub 上找到。"],[20,"n","24:"Reh5"|direction:"ltr"],[20,"n","24:"UgwM"|direction:"ltr"],[20,"约束 Tsetlin 机器子句大小构建简明逻辑模式","8:1"],[20,"n","24:"13sD"|direction:"ltr"],[20,"n","24:"IHub"|direction:"ltr"],[20,"Tsetlin 机器(TM)是一种基于逻辑的机器学习方法,具有透明和硬件友好的关键优势。"],[20,"n","24:"CiHV"|direction:"ltr"],[20,"n","24:"RcHo"|direction:"ltr"],[20,"虽然 TM 在越来越多的应用程序中匹配或超越了深度学习的准确性,但是大子句池往往产生具有许多文字(长子句)的子句,使得它们变得不那么容易理解。"],[20,"n","24:"kjQJ"|direction:"ltr"],[20,"n","24:"DlSc"|direction:"ltr"],[20,"此外,较长的子句增加了硬件中子句逻辑的切换活动,具有更高的功耗。"],[20,"n","24:"Bj8z"|direction:"ltr"],[20,"n","24:"FBm8"|direction:"ltr"],[20,{"gallery":"https://uploader.shimo.im/f/OsEN9ChqgNO7zTDF.png!thumbnail"},"29:0|30:0|3:"1080"|4:"auto"|crop:""|frame:"none"|ori-height:"248"|ori-width:"1080"],[20,"n","24:"9INj"|direction:"ltr"],[20,"论文链接:"],[20,"https://arxiv.org/abs/2301.08190","16:"https%3A%2F%2Farxiv.org%2Fabs%2F2301.08190"],[20,"n","24:"G0dI"|direction:"ltr"],[20,"n","24:"KgLM"|direction:"ltr"],[20,"这篇论文介绍了一种新的 TM 学习方法,即子句大小受限的子句学习方法(CSC-TM) ,可以对子句大小设置软约束。"],[20,"n","24:"TOXf"|direction:"ltr"],[20,"n","24:"hsBh"|direction:"ltr"],[20,"一旦子句包含比约束允许的更多的字面值(literals),就开始排除字面值,因此只会短暂出现较大的子句。"],[20,"n","24:"gAGM"|direction:"ltr"],[20,"n","24:"Xu1A"|direction:"ltr"],[20,"为了评价 CSC-TM,研究人员对表格数据、自然语言文本、图像和棋盘游戏进行了分类、聚类和回归实验。"],[20,"n","24:"XBGk"|direction:"ltr"],[20,"n","24:"xLFD"|direction:"ltr"],[20,"结果表明,CSC-TM 保持准确性与多达80倍的文字减少,实际上,TREC、 IMDb 和 BBC Sports 的子句越短,准确性就越高,在准确性达到峰值之后,当子句大小接近单个文字时,就会缓慢地下降。"],[20,"n","24:"CkQ3"|direction:"ltr"],[20,"n","24:"RDzL"|direction:"ltr"],[20,"文章最后分析了 CSC-TM 的功耗,得到了新的收敛性质。"],[20,"n","24:"tQfs"|direction:"ltr"],[20,"n","24:"4VMj"|direction:"ltr"],[20,"#DNN-Verification问题:计算深度神经网络的不安全输入"],[20,"n","24:"JEx7"|direction:"ltr"],[20,"n","24:"pUDN"|direction:"ltr"],[20,"深度神经网络越来越多地用于需要高安全级别的关键任务,比如说自动驾驶,虽然可以采用最先进的验证器来检查DNN是否是不安全的,给定一些属性(即,是否存在至少一个不安全的输入配置)后,是/否输出对于其它目的(例如屏蔽、模型选择或训练改进)而言信息量不足。"],[20,"n","24:"ejum"|direction:"ltr"],[20,"n","24:"FSOq"|direction:"ltr"],[20,{"gallery":"https://uploader.shimo.im/f/wnFKzK7TX2kH5WlG.png!thumbnail"},"29:0|30:0|3:"898"|4:"auto"|crop:""|frame:"none"|ori-height:"235"|ori-width:"898"],[20,"n","24:"7ZAW"|direction:"ltr"],[20,"论文链接:"],[20,"https://arxiv.org/abs/2301.07068","16:"https%3A%2F%2Farxiv.org%2Fabs%2F2301.07068"],[20,"n","24:"Ircg"|direction:"ltr"],[20,"n","24:"BliU"|direction:"ltr"],[20,"这篇论文介绍了#DNN-Verification问题,该问题涉及计算导致违反特定安全属性的DNN输入配置的数量,研究人员分析了这个问题的复杂性,并提出了一种新的方法,返回确切的违规计数。"],[20,"n","24:"mUfl"|direction:"ltr"],[20,"n","24:"RvCW"|direction:"ltr"],[20,"由于问题是P-完备性的,文中提出了一个随机的近似方法,提供了一个可证明的概率界的正确计数,同时显着降低计算要求。 "],[20,"n","24:"n6hq"|direction:"ltr"],[20,"n","24:"VVuX"|direction:"ltr"],[20,"文中还提出了一组安全关键的基准,证明该近似方法的有效性和评估的约束的紧密性的实验结果。"]]" data-copy-origin="https://shimo.im">
来 源: 新智源
又到顶会放榜时,几家欢喜几家愁。 IJCAI 2023放榜,你中了几篇?
本次IJCAI 2023共收到4566份提交全文,接收率大约15%
(资料图片)
问题链接: https://www.zhihu.com/question/578082970
从知乎上反馈的结果来看,整体审稿质量依然不尽如人意(也可能是被拒稿的怨念...),甚至有的审稿人根本没看rebuttal的内容就给拒了。
也存在都是分数相同,但结局不同的论文。
也有网友贴出meta review的拒绝理由,全是大缺点。
不过拒稿并不是终点,更重要的是继续出发。
网友Lower_Evening_4056认为,即便是里程碑式的论文也会被多次拒稿,也有一些论文即便不够出色,也能被录用。
当你继续前行, 再回过头来看那些合理的审稿意见时,你会发现自己的工作还能再上一个层次 。
审稿系统确实存在缺陷 ,更重要的是不要把reject看作是对你个人或作品价值的评估结果。如果你是一个学生,并且你的导师根据审稿结果而不是工作质量来评价你的话,那你可能就要重新考虑和导师的合作关系了。
NeurIPS会议此前开展过一致性实验,对于平均分在5到6.5之间的论文, 录用结果基本就是随机的,取决于你碰到的审稿人 。
比如说有个人的论文结果是9665,如果他没碰到给他9分的审稿人,那结果必然是reject,只不过他刚好碰到了伯乐,并且扭转了审稿结果。
最后,恭喜那些论文录用的科研人,助力推动人工智能研究的发展!
下面是一些在社交媒体上分享已录用的论文。
IJCAI 2023接收论文
端到端抗噪语音识别中多任务学习的梯度修正
在下游语音自动识别系统(ASR)中,语音增强学习策略(SE)被证明能够有效地减少噪声语音信号产生的噪声,该系统采用多任务学习策略对这两个任务进行联合优化。
然而,通过 SE 目标学习的增强语音并不总是产生良好的 ASR 结果。
从优化的角度来看,自适应任务和自适应反应任务的梯度之间有时会存在干扰,这会阻碍多任务学习,最终导致自适应反应性能不理想。
论文链接: https://arxiv.org/pdf/2302.11362.pdf
这篇论文提出了一种简单而有效的梯度补偿(GR)方法来解决噪声鲁棒语音识别中任务梯度之间的干扰问题。
具体来说,首先将 SE 任务的梯度投影到一个与 ASR 梯度呈锐角的动态曲面上,以消除它们之间的冲突,协助 ASR 优化。
此外,自适应地调整两个梯度的大小,以防止主导 ASR 任务被 SE 梯度误导。
实验结果表明,该方法较好地解决了梯度干扰问题,在多任务学习基线上,在 RATS 和 CHiME-4数据集上分别实现了9.3% 和11.1% 的相对词错误率(WER)降低。
约束 Tsetlin 机器子句大小构建简明逻辑模式
Tsetlin 机器(TM)是一种基于逻辑的机器学习方法,具有透明和硬件友好的关键优势。
虽然 TM 在越来越多的应用程序中匹配或超越了深度学习的准确性,但是大子句池往往产生具有许多文字(长子句)的子句,使得它们变得不那么容易理解。
此外,较长的子句增加了硬件中子句逻辑的切换活动,具有更高的功耗。
论文链接: https://arxiv.org/abs/2301.08190
这篇论文介绍了一种新的 TM 学习方法,即子句大小受限的子句学习方法(CSC-TM) ,可以对子句大小设置软约束。
一旦子句包含比约束允许的更多的字面值(literals),就开始排除字面值,因此只会短暂出现较大的子句。
为了评价 CSC-TM,研究人员对表格数据、自然语言文本、图像和棋盘游戏进行了分类、聚类和回归实验。
结果表明,CSC-TM 保持准确性与多达80倍的文字减少,实际上,TREC、 IMDb 和 BBC Sports 的子句越短,准确性就越高,在准确性达到峰值之后,当子句大小接近单个文字时,就会缓慢地下降。
文章最后分析了 CSC-TM 的功耗,得到了新的收敛性质。
#DNN-Verification问题:计算深度神经网络的不安全输入
深度神经网络越来越多地用于需要高安全级别的关键任务,比如说自动驾驶,虽然可以采用最先进的验证器来检查DNN是否是不安全的:
给定一些属性(即,是否存在至少一个不安全的输入配置)后,模型的yes/no输出对于其它目的(例如shielding、模型选择或训练改进)而言信息量不足。
论文链接: https://arxiv.org/abs/2301.07068
这篇论文介绍了#DNN-Verification问题,该问题涉及计算导致违反特定安全属性的DNN输入配置的数量,研究人员分析了这个问题的复杂性,并提出了一种新的方法,返回确切的违规计数。
由于问题是P-完备性的,文中提出了一个随机的近似方法,提供了一个可证明的概率界的正确计数,同时显着降低计算要求。
文中还提出了一组安全关键的基准,证明该近似方法的有效性和评估的约束的紧密性的实验结果。