ENGLISH
|
学校主页
学院主页
学院概况
学院简介
现任领导
组织机构
联系方式
师资队伍
教授
副教授
讲师
党委行政
退休职工
科学研究
研究中心
数苑博雅讲座
数苑经纬讲坛
学术报告
学术会议
科研项目
科研论文
本科教学
教学动态
精品课程
教学团队
本科生实习
专业介绍与培养方案
研究生培养
研究生培养动态
研究生专业方向
研究生培养方案
党建园地
党建动态
数院党校
学生工作
学工热点
研究生园地
班团快讯
体坛风云
社团采风
学工制度
合作交流
校友动态
校友动态
人才招聘
科学研究
研究中心
数苑博雅讲座
数苑经纬讲坛
学术报告
学术会议
科研项目
科研论文
学术报告
当前位置:
学院主页
>
科学研究
>
学术报告
> 正文
Deep Mutual Density Ratio Estimation with Bregman Divergence and Its Applications
发布时间:2025-07-05 作者: 浏览次数:
Speaker:
孙六全
DateTime:
2025年7月7日(周一)下午14:00-15:00
Brief Introduction to Speaker:
孙六全 ,中国科学院数学与系统科学研究院
Place:
国交2号楼315
Abstract:
This talk introduces a unified approach to estimating the mutual density ratio, defined as the ratio between the joint density function and the product of the individual marginal density functions of two random vectors. It serves as a fundamental measure for quantifying the relationship between two random vectors. Our method uses Bregman divergence to construct the objective function and leverages deep neural networks to approximate the logarithm of the mutual density ratio. We establish a non-asymptotic error bound for our estimator, achieving the optimal minimax rate of convergence under a bounded support condition. Additionally, our estimator mitigates the curse of dimensionality when the distribution is supported on a lower-dimensional manifold. We extend our results to overparameterized neural networks and the case with unbounded support. Applications of our method include conditional probability density estimation, mutual information estimation, and independence testing. Simul...
上一条:这是第一条
下一条:
随机特征方法