自习室开放时间:7:30-22:00        借阅室开放时间:8:30-22:00
  • 学校首页
  • 图书馆邮箱
  • 校外访问
您当前所在位置: 网站首页 >> 新闻通知 >> 正文

关于由AI Time主办的“ACL预讲”专场直播课的开播通知

2022-04-19  浏览量:       打印内容

各位读者:

“文泉学堂”是高等教育学科建设知识库,在聚合了多家大学出版社专业知识内容资源的同时也持续为师生用户推荐学术、教学、科技前沿的直播和课程。

4月20日(周三)、21日(周四)每晚19:30-20:30,将直播由AI Time主办的“ACL预讲”专场,本期邀请了来自中国科学院计算技术研究所、香港科技大学计算机系、清华大学电子工程系、香港中文大学计算机系的四位学者们为大家做精彩分享!


一、背景介绍:

AI Time是清华大学计算机系一群关注人工智能发展,并有思想情怀的青年学者们创办的圈子,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法、场景、应用的本质问题进行探索,加强思想碰撞,打造一个知识分享的聚集地。



二、直播平台进入方式:

登录文泉学堂网址https://lib-lzit.wqxuetang.com→点击右侧活动板块→进入直播系列课




三、直播预告详情:


第一期

直播时间:4月20日 19:30-20:30

分享嘉宾1:



盛强,中国科学院计算技术研究所数字内容合成与伪造检测实验室博士生,导师为曹娟研究员。主要研究方向为面向社交媒体数据的虚假新闻检测与事实核查。


分享内容:

假新闻检测:观察新闻本身,更要观察它所在的新闻环境


报告简介:

社交媒体虚假新闻的广泛传播已经在政治、经济、健康等领域带来了严重危害。现有的检测方法往往选择推近观察(“zoom in”),通过捕捉特定行文模式、基于知识库验证内容真实性、考虑用户评论,对给定新闻的真实性做出判断。

这些方法忽略了假新闻创作和传播时所处的新闻环境中蕴含的信息:为了提高影响力和破坏力,假新闻往往存在“蹭热点”倾向,这使得新闻环境反映的近期主流的媒体焦点和群众关切,成为了假新闻创作中的重要参考。例如,2月1日中国男足1-3负于越南男足后,网上立刻流传起“击败国足的越南足球队队长在农贸市场卖虾谋生”的不实信息。

基于上述思考,我们认为拉远焦点(“zoom out”),观察给定新闻与其所在新闻环境的关系,可以为假新闻检测提供全新的视角。本文提出新闻环境感知框架,通过在宏观环境中观察给定新闻的流行度,在微观环境中观察其新颖度,捕捉有用信息用于假新闻检测。据我们所了解,这是首个考虑新闻环境信息的假新闻检测工作。



分享嘉宾2:



张永祺,博士毕业于香港科技大学计算机系,自2020年起在第四范式科学技术部从事机器学习算法研究工作,主要研究方向为自动化机器学习、知识图谱表示学习与图神经网络。其自研的自动化知识图谱表示学习技术,在知识图谱的多项重要任务上达到国际领先水平,并在人工智能领域顶级会议期刊NeurIPS、TPAMI、ACL、WWW、VLDB Journal、ICDE上发表多个相关工作。


分享内容:

针对知识图谱学习的高效超参搜索算法


报告简介:

超参数调优对于知识图谱学习是一个重要问题,会严重影响模型性能,但由于模型训练时间长,现有的超参数搜索算法往往效率低下。

为解决这一问题,我们详细地分析了不同超参数的性质,及子图到全图的迁移能力。并根据实验效果提出了两阶段的调参算法KGTuner,我们在第一阶段利用子图高效地探索大量超参数,并将性能最好的几组超参数配置迁移到全图上,在第二阶段进行微调。

实验表明,两阶段搜索算法大大提升了超参数搜索效率,在不同的大规模知识图谱链接预测任务上,均获得了性能的提升。




第二期

直播时间:4月21日 19:30-20:30

分享嘉宾1:



武楚涵,清华大学电子工程系博士研究生,主要研究方向为自然语言处理、推荐系统和用户建模,曾在多个人工智能领域知名学术会议和期刊上发表论文多篇。


分享内容:

小噪声对预训练语言模型微调的帮助


报告简介:

准确地微调预训练语言模型对于它们在下游任务中的成功至关重要。但是,预训练语言模型可能存在过度拟合预训练任务和数据的风险,从而与目标下游任务存在鸿沟。现有的微调方法往往难以克服这类鸿沟。

在本文中,我们提出了一种非常简单有效的方法,名为 NoisyTune。我们通过在微调之前向语言模型的参数添加少量噪声来帮助更好地在下游任务中微调语言模型。我们提出了一种矩阵级扰动方法,根据不同参数矩阵的标准差,将不同强度的均匀噪声添加到不同参数矩阵中,从而考虑模型中不同类型参数的差异化特征。在GLUE和XTREME等基准数据集上的实验表明,NoisyTune 可以简单有效地为语言模型在下游任务中带来提升。


分享嘉宾2:



王文轩,香港中文大学计算机系博士研究生,师从Dr. Michael Lyu吕荣聪教授。主要研究方向是机器翻译等自然语言处理模型的可靠性。


分享内容:

理解和改进针对机器翻译,任务的序列到序列预训练


报告简介:

本研究旨在理解和改进针对机器翻译任务的序列到序列的预训练,特别是预训练解码器的研究。我们发现序列到序列的预训练对机器翻译任务来说是一把双刃剑:一方面这个模块可以提高翻译模型的译文的准确性和多样性;另一方面,由于预训练和下游微调任务的不同,预训练解码器会引入生成风格的偏移以及过度自信的问题,从而限制模型性能。基于此,本工作提出了两个简洁有效的方法:领域内预训练和输入自适应。实验表明,我们的方法可以有效的提高模型性能和鲁棒性。


欢迎大家届时收看!



图书馆

2022年4月19日


上一条:关于参加文泉学堂读书月——新时代生活百科答题活动的通知 下一条:关于图书馆2021年度4.23世界读书日系列活动的领奖通知

友情链接:
甘肃省高校图工委 甘肃科技文献共享平台 CALIS甘肃省信息服务中心 CASHL西北区域中心 CADAL管理中心 NSTL兰州服务站