[中国,深圳,2022年4月11日]一年一度的欧拉开发者大会(openEuler Developer Day 2022)拉开帷幕,将于4月13-15日在线上和线下同步举办。本届大会由开放原子开源基金会下的欧拉开源社区发起并举办,也是欧拉正式捐赠之后的首次社区开发者大会。
大会以“一起创未来,欧拉更精彩”为主题,来自全产业链相关厂商、用户、开发者共同参会,推动openEuler在服务器、云计算、边缘计算和嵌入式四大场景的技术探索和创新,共建极具创新力的操作系统开源社区。
华为、英特尔、超聚变、新华三、麒麟、统信、SUSE、麒麟信安、中科院软件所等芯片厂商、整机厂商、软件厂商代表将参加大会,共建支持多样性计算的数字基础设施开源操作系统。中国电信、中国移动、中国联通、中信、上交所等企业用户代表出席主论坛演讲,分享欧拉行业应用实践和联合创新。
本次大会上,将召开社区各级工作会议,SIG组工作规划会议,发布社区首个数字基础设施全场景长周期版本(openEuler 22.03 LTS版本),展示社区伙伴的联合创新成果,与社区技术大咖共同探讨内核、云原生、虚拟化、多样性计算、边缘计算、嵌入式等前沿技术。
1. 社区工作会议
社区理事会、技术委员会、用户委员会、品牌委员会等将于4月13日召开闭门会议,共同决策社区重大工作,商讨技术发展方向、社区运作模式、生态推广、品牌运营等。
2. SIG组版本规划工作会议
50场SIG组工作规划会议将于4月14日在线举行,讨论社区下一个版本的创新方向和交付规划,并制定详细工作计划。SIG组聚焦不同的技术方向,同时召开50场SIG组工作会议,不仅有助于激发开发者的创造力,促进组与组之间的技术交流与合作,也是社区开放与活力的体现。
3. 欧拉首个数字基础设施全场景长周期版本发布,以及新特性深度解读
4月15日线上直播大会主论坛,将正式发布openEuler 22.03 LTS版本,并对新特性做详细解读和演示。这是欧拉捐赠之后的首个社区共建版本,也是首个支持数字基础设施全场景融合的长周期版本,针对服务器、云计算、边缘计算和嵌入式四大场景首次发布新特性,方便开发者构建面向全场景的数字基础设施操作系统。
4. 欧拉伙伴宣布商业发行版计划
伴随着openEuler 22.03 LTS版本的发布,本次大会上将有更多的伙伴宣布推出基于欧拉的商业发行版,加速在更多行业商用落地。
此外,欧拉技术认证体系发布,颁发首批认证伙伴,社区贡献看板正式上线等重大进展都将在大会期间逐一呈现,标志着社区治理不断完善、运作日益规范成熟,欧拉操作系统生态也愈发繁荣。
2019年,华为把自己在服务器操作系统上积累了10余年的能力开放出来,欧拉操作系统正式开源。2021年9月,华为进一步将自身在ICT领域各场景、不同设备上的操作系统能力全面开放,欧拉全新升级,从服务器场景,扩展到云计算、边缘计算和嵌入式场景,成为面向数字基础设施的开源操作系统。同年11月,华为携手伙伴将欧拉开源操作系统项目正式捐赠给开放原子开源基金会,标志着欧拉从创始企业主导的开源项目演进到产业共建、社区自治。
截至目前,欧拉开源社区已经吸引近万名开源贡献者,330多家企业、研究机构和高校加入,成立近百个特别兴趣小组,成为国内极具创新力的开源社区,并通过社区发行版、伙伴商业发行版等多种形式,促进操作系统产业健康、快速发展。(欧拉开源社区链接:https://www.openeuler.org/zh/)
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。