投稿问答最小化  关闭

万维书刊APP下载

英国伦敦玛丽女王大学全奖博士招生

2023/12/21 17:07:26  阅读:103 发布者:

关于Ahmed M.A.Sayed博士(又名Ahmed M.Abdelmoniem)是英国伦敦玛丽女王大学电子工程与计算机科学学院的讲师(研究与教学),相当于助理教授。他还是大数据科学硕士项目的主任。他领导SAYED系统小组,致力于与分布式系统、系统的MLML系统、联合学习、边缘/云计算、拥塞控制和软件定义网络(SDN)相关的各种主题。

有关详细信息,请访问https://eecs.qmul.ac.uk/~艾哈迈德/

研究他的研究跨越了计算机科学和工程的相关学科,专注于机器学习系统的系统设计和优化(训练和推理效率、分布式ML、联合学习)、分布式系统(架构设计、性能分析、资源分配、算法优化),计算机网络(流量工程、拥塞控制、性能优化、软件定义的网络)和无线网络(移动自组织和无线传感器网络中的路由)。

关于Dr. Ziquan Liu是即将上任的讲师(研究与教学),相当于伦敦玛丽女王大学EECS学院的助理教授,隶属于Prof. Shaogang Gong领导的计算机视觉小组。刘博士自20234月起担任伦敦大学学院研究员。在陈教授的指导下,他于2023年获得香港城市大学计算机科学博士学位。他于2017年获得北航大学信息工程学士学位和数学学士学位。

有关详细信息,请访问https://sites.google.com/view/ziquanliu

研究他的研究重点是AI安全,包括值得信赖的机器学习、对齐和可解释的AI。他的研究发表在机器学习和计算机视觉领域的顶级会议和期刊上,包括NeurIPSICLRCVPRIJCAITPAMI

选定的出版物

[1] Ahmed M.AbdelmoniemAhmed ElzanatyMohamed Slim AlouninMarco canini一种用于分布式训练系统的高效基于统计的梯度压缩技术,国际机器学习系统会议(MLSys),2021

[2] Ahmed M.AbdelmoniemChen Yu HoPantelis PapageorgiouMarco Canini异构环境下联合学习的实证分析“”。第二届机器学习与系统研讨会-EuroMLSysACM EuroSys2022

[3] Atal Narayan SahuAritra DuttaAhmed M AbdelmoniemTrambak BanerjeeMarco CaniniPanos Kalnis将梯度稀疏化重新思考为总误差最小化“”。第35届神经信息处理系统会议(NeurIPS),2021年。

[4] 崔玉飞,刘子泉,陈一新,陆玉晨,余欣悦,刘雪,郭泰伟,罗德里格斯,薛淳,陈,“检索增强多实例学习”,神经信息处理系统,2023

[5] 刘子泉,徐毅,季向阳,陈东尼,“TWINS:一种改进对抗性鲁棒性和泛化可转移性的微调框架”,IEEE/CFF计算机视觉与模式识别会议,2023

[6] 刘子泉,徐毅,徐远鸿,齐茜,郝莉,季向阳,陈锦波,“更好地利用预训练数据改进微调”,神经信息处理系统,2022

开放有CSC学生签证可供2024年秋季入学。

研究主题包括但不限于以下内容

大型语言模型的高效训练和微调

在人工智能快速发展的背景下,复杂的生成人工智能和大型语言模型(LLM)的开发已成为各种应用的关键,从自然语言处理到创造性内容生成。然而,这些模型的训练是计算密集型的,通常需要大量的时间和资源。该项目将研究并提出系统和算法优化,以加快Generative AILLM的训练过程,解决这些模型的复杂性带来的挑战。这项研究的核心重点在于探索和实现先进的并行计算技术,利用分布式系统和专用硬件加速器的力量。通过优化算法,采用并行化策略,并利用GPUTPU或新兴的人工智能专用硬件的能力,该项目旨在显著减少Generative AILLM的训练时间,使过程更加高效和划算。此外,本研究深入研究了迁移学习领域,并探索了提高模型收敛性和准确性的技术。通过利用预先训练的模型和开发新的迁移学习方法,该研究旨在最大限度地减少训练所需的数据和计算资源,从而使获得尖端人工智能技术的途径民主化。

大规模去中心化数据的高效机器学习及其隐私和偏见

AI/ML系统正在成为用户产品和应用程序不可或缺的一部分,也是大多数组织的主要收入驱动因素。这导致将重点转移到将情报带到数据产生的地方,包括根据这些数据训练模型。现有的方法如下:1)数据在多个服务器上收集并并行处理(例如,分布式数据并行);2) 服务器协调训练轮次并从客户端收集模型更新(例如,联合学习);3) 服务器在客户端和服务器之间分割模型训练(例如,分割学习);或者4)客户端通过八卦协议(即去中心化训练)在它们之间进行协调。表现出来的挑战是高度异构的学习者、配置、环境、通信和同步开销、公平性和偏见以及隐私和安全性。因此,现有的方法无法适应大量的学习者,并且在长时间的训练中产生质量低、偏差大的模型。当务之急是建立能够及时提供高质量模型的系统。该项目通过探索新颖的想法并提出用于去中心化数据的高效且可扩展的ML系统来解决这一差距。

生成型人工智能和大型语言模型的安全性和可靠性

TBA

Al+医疗保健中的隐私和偏见,尤其是在分布式培训的背景下

请感兴趣的同学同时发送简历到ahmed.sayed@qmul.ac.ukziquanliu.cs@gmail.com

转自:“科研doge”微信公众号

如有侵权,请联系本站删除!


  • 万维QQ投稿交流群    招募志愿者

    版权所有 Copyright@2009-2015豫ICP证合字09037080号

     纯自助论文投稿平台    E-mail:eshukan@163.com