时间:2024-09-13 21:51:57
编辑:同欣资源网
阅读:3
近日消息,Hugging Face发布了其“SmolLM”模型系列,精心打造了包含1.35亿、3.6亿及17亿参数的不同型号,为移动设备的AI应用注入了新活力,丰富了轻量级AI模型的应用场景。
据介绍,这些模型号称是以精心策划的高质量训练数据集训练而成,号称在 Python 程序编写性能上相当强大,团队指出他们重点优化了模型所需的 RAM 用量,“即使是在 6GB RAM 的 iPhone 15 上也能运行”。
在训练方面,Hugging Face 团队首先建立了一款名为 SmolLM-Corpus 的数据集,该数据集主要包含 Python 教学内容 Python-Edu、Web 教育内容 FineWeb-Edu 以及使用 Mixtral-8x7B-Instruct-v0.1 和 Cosmopedia v2 两款模型生成的常识内容,token 量总计 6000 亿。此后 Hugging Face 团队便使用 SmolLM-Corpus 数据集训练了“SmolLM”小语言模型。
Hugging Face 团队将开发出的 SmolLM 模型与相同参数量的其他模型进行了基准测试,其中 SmolLM-135M 在多项测试中超越了小于 2 亿参数的其他模型;而 SmolLM-360M 的测试成绩优于所有小于 5 亿参数以下的模型,不过某些项目逊于 Meta 刚刚公布的 MobileLLM-350M;SmolLM-1.7B 模型则超越了所有参数量小于 20 亿参数的模型,包括微软 Phi-1.5、MobileLLM-1.5B 及 Qwen2。
近日消息,知名AI社区Hugging Face揭晓了一项创新工具——LightEval,专为大型语言模型(LLMs)的高效评估而生。这款轻量级评估套件意在满足企业与研究界的需求,通过提供一套便捷的工具集,使得模型性能测试更为精确且易于管理,助力用户深入了解LLMs的能力边界与潜在优化空间。
随着 AI 技术在各个行业中变得愈加重要,如何有效地评估这些模型,确保其准确性和符合业务目标,就显得尤为重要。
通常来说,AI 模型的评估常常被低估。我们常常关注模型的创建和训练,但评估模型的方式同样至关重要。如果缺乏严谨且针对特定情境的评估,AI 系统就有可能输出不准确、有偏见或与业务目标不一致的结果。
因此,Hugging Face 的 CEO Clément Delangue 在社交媒体上强调,评估不仅是一个最后的检查点,更是确保 AI 模型符合预期的基础。
如今,AI 已经不仅仅局限于研究实验室或科技公司,许多行业,如金融、医疗和零售等,都在积极采用 AI 技术。然而,很多企业在评估模型时常常面临挑战,因为标准化的基准测试往往无法捕捉实际应用中的复杂性。LightEval 正是为了解决这个问题而生,它允许用户根据自己的需求进行定制化评估。
这个评估工具与 Hugging Face 现有的一系列工具无缝集成,包括数据处理库 Datatrove 和模型训练库 Nanotron,提供了一个完整的 AI 开发流程。
LightEval 支持在多种设备上进行评估,包括 CPU、GPU 和 TPU,适应不同的硬件环境,满足企业的需求。
LightEval 的推出正值 AI 评估受到越来越多关注的时刻。随着模型的复杂性增加,传统评估技术逐渐显得力不从心。Hugging Face 的开源策略将使得企业能够自行运行评估,确保其模型在投入生产之前符合其道德和业务标准。
此外,LightEval 易于使用,即使是技术水平不高的用户也能上手。用户可以在多种流行基准上评估模型,甚至定义自己的自定义任务。而且,LightEval 还允许用户指定模型评估的配置,如权重、管道并行性等,给需要独特评估流程的公司提供了强大的支持。
最近,Hugging Face,这家备受瞩目的开源人工智能社区与技术公司,宣布推出了其最新的轻量化语言模型——SmolLM(Small Language Model)。
SmolLM专为移动设备优化,能够在智能手机等资源受限的平台上高效运行,打破了以往语言模型体积庞大、只能在高性能服务器上运行的传统观念。
SmolLM模型的特点就是小巧而强大。它们能在更少的计算资源下,依然表现出色,帮助用户保护隐私。Hugging Face在训练这些模型时使用了一个叫做SmolLM-Corpus的数据集,这个数据集经过精心挑选,包含了丰富的教育和合成数据,确保模型能够学习到各种知识。
具体来说,SmolLM有三个版本:135M、360M和1.7B参数。这些模型不仅能处理多种任务,还能根据用户的硬件配置,灵活运行。比如,SmolLM-135M模型就超越了许多同类产品,成为了小于200M参数模型中的佼佼者。
SmolLM模型在各个基准测试中进行了评估,测试了常识推理和世界知识。这些型号表现出令人印象深刻的性能,在各自的尺寸类别中表现优于其他型号。例如,尽管在较少的令牌上进行了训练,但 SmolLM-135M 模型超过了 MobileLM-125M,后者是当前参数小于200M 的最佳模型。同样,SmolLM-360M 和 SmolLM-1.7B 模型分别优于参数小于500M 和2B 的所有其他模型。
除了优秀的性能,SmolLM还经过了特别的调教,使得它在理解指令和回答问题时更加出色。Hugging Face还提供了WebGPU的演示,大家可以直接体验这些模型的能力。
SmolLM的发布证明了即使是小型模型,也能通过高质量的训练数据,实现令人惊叹的表现。
腾讯力作EzAudio AI:文本即刻转为生动语音,革新音频合成体验
尼康新品动态曝光:Z50Ⅱ与Coolpix P1000后续机型有望年内亮相
立冬适合吃什么,传统习俗一览
高通宣布骁龙7s Gen3芯片:赋能终端侧AI生成,开启智能新篇章
阅读:111
阅读:38
阅读:28
阅读:11
阅读:41
射击飞行33.14MB
2025-01-08
军事策略57.60MB
军事策略881.12MB
冒险闯关98.36MB
军事策略100.35MB
军事策略462.66MB
亲子教育2.78MB
社交通讯0KB
亲子教育12.30MB
亲子教育42.52MB
网络购物0KB
商务办公42.46MB
联系方式:tongxinyuesaocom@163.com
版权所有2023 tongxinyuesao.com AII版权所有备案号 渝ICP备20008086号-37
Hugging Face发布“SmolLM”轻量级Python模型,iPhone 15低配版亦能流畅运行
时间:2024-09-13 21:51:57
编辑:同欣资源网
阅读:3
近日消息,Hugging Face发布了其“SmolLM”模型系列,精心打造了包含1.35亿、3.6亿及17亿参数的不同型号,为移动设备的AI应用注入了新活力,丰富了轻量级AI模型的应用场景。
据介绍,这些模型号称是以精心策划的高质量训练数据集训练而成,号称在 Python 程序编写性能上相当强大,团队指出他们重点优化了模型所需的 RAM 用量,“即使是在 6GB RAM 的 iPhone 15 上也能运行”。
在训练方面,Hugging Face 团队首先建立了一款名为 SmolLM-Corpus 的数据集,该数据集主要包含 Python 教学内容 Python-Edu、Web 教育内容 FineWeb-Edu 以及使用 Mixtral-8x7B-Instruct-v0.1 和 Cosmopedia v2 两款模型生成的常识内容,token 量总计 6000 亿。此后 Hugging Face 团队便使用 SmolLM-Corpus 数据集训练了“SmolLM”小语言模型。
Hugging Face 团队将开发出的 SmolLM 模型与相同参数量的其他模型进行了基准测试,其中 SmolLM-135M 在多项测试中超越了小于 2 亿参数的其他模型;而 SmolLM-360M 的测试成绩优于所有小于 5 亿参数以下的模型,不过某些项目逊于 Meta 刚刚公布的 MobileLLM-350M;SmolLM-1.7B 模型则超越了所有参数量小于 20 亿参数的模型,包括微软 Phi-1.5、MobileLLM-1.5B 及 Qwen2。
模型评估进入轻量化时代!Hugging Face揭晓LightEval,一键解锁模型性能评测
近日消息,知名AI社区Hugging Face揭晓了一项创新工具——LightEval,专为大型语言模型(LLMs)的高效评估而生。这款轻量级评估套件意在满足企业与研究界的需求,通过提供一套便捷的工具集,使得模型性能测试更为精确且易于管理,助力用户深入了解LLMs的能力边界与潜在优化空间。
随着 AI 技术在各个行业中变得愈加重要,如何有效地评估这些模型,确保其准确性和符合业务目标,就显得尤为重要。
通常来说,AI 模型的评估常常被低估。我们常常关注模型的创建和训练,但评估模型的方式同样至关重要。如果缺乏严谨且针对特定情境的评估,AI 系统就有可能输出不准确、有偏见或与业务目标不一致的结果。
因此,Hugging Face 的 CEO Clément Delangue 在社交媒体上强调,评估不仅是一个最后的检查点,更是确保 AI 模型符合预期的基础。
如今,AI 已经不仅仅局限于研究实验室或科技公司,许多行业,如金融、医疗和零售等,都在积极采用 AI 技术。然而,很多企业在评估模型时常常面临挑战,因为标准化的基准测试往往无法捕捉实际应用中的复杂性。LightEval 正是为了解决这个问题而生,它允许用户根据自己的需求进行定制化评估。
这个评估工具与 Hugging Face 现有的一系列工具无缝集成,包括数据处理库 Datatrove 和模型训练库 Nanotron,提供了一个完整的 AI 开发流程。
LightEval 支持在多种设备上进行评估,包括 CPU、GPU 和 TPU,适应不同的硬件环境,满足企业的需求。
LightEval 的推出正值 AI 评估受到越来越多关注的时刻。随着模型的复杂性增加,传统评估技术逐渐显得力不从心。Hugging Face 的开源策略将使得企业能够自行运行评估,确保其模型在投入生产之前符合其道德和业务标准。
此外,LightEval 易于使用,即使是技术水平不高的用户也能上手。用户可以在多种流行基准上评估模型,甚至定义自己的自定义任务。而且,LightEval 还允许用户指定模型评估的配置,如权重、管道并行性等,给需要独特评估流程的公司提供了强大的支持。
SmolLM:Hugging Face打造的小型语言模型,低参数量下的杰出性能
最近,Hugging Face,这家备受瞩目的开源人工智能社区与技术公司,宣布推出了其最新的轻量化语言模型——SmolLM(Small Language Model)。
SmolLM专为移动设备优化,能够在智能手机等资源受限的平台上高效运行,打破了以往语言模型体积庞大、只能在高性能服务器上运行的传统观念。
SmolLM模型的特点就是小巧而强大。它们能在更少的计算资源下,依然表现出色,帮助用户保护隐私。Hugging Face在训练这些模型时使用了一个叫做SmolLM-Corpus的数据集,这个数据集经过精心挑选,包含了丰富的教育和合成数据,确保模型能够学习到各种知识。
具体来说,SmolLM有三个版本:135M、360M和1.7B参数。这些模型不仅能处理多种任务,还能根据用户的硬件配置,灵活运行。比如,SmolLM-135M模型就超越了许多同类产品,成为了小于200M参数模型中的佼佼者。
SmolLM模型在各个基准测试中进行了评估,测试了常识推理和世界知识。这些型号表现出令人印象深刻的性能,在各自的尺寸类别中表现优于其他型号。例如,尽管在较少的令牌上进行了训练,但 SmolLM-135M 模型超过了 MobileLM-125M,后者是当前参数小于200M 的最佳模型。同样,SmolLM-360M 和 SmolLM-1.7B 模型分别优于参数小于500M 和2B 的所有其他模型。
除了优秀的性能,SmolLM还经过了特别的调教,使得它在理解指令和回答问题时更加出色。Hugging Face还提供了WebGPU的演示,大家可以直接体验这些模型的能力。
SmolLM的发布证明了即使是小型模型,也能通过高质量的训练数据,实现令人惊叹的表现。
腾讯力作EzAudio AI:文本即刻转为生动语音,革新音频合成体验
2024-11-16尼康新品动态曝光:Z50Ⅱ与Coolpix P1000后续机型有望年内亮相
2024-08-24立冬适合吃什么,传统习俗一览
2024-12-09高通宣布骁龙7s Gen3芯片:赋能终端侧AI生成,开启智能新篇章
2024-10-17阅读:111
阅读:38
阅读:28
阅读:11
阅读:41
射击飞行33.14MB
2025-01-08
军事策略57.60MB
2025-01-08
军事策略881.12MB
2025-01-08
冒险闯关98.36MB
2025-01-08
军事策略100.35MB
2025-01-08
军事策略462.66MB
2025-01-08
亲子教育2.78MB
2025-01-08
社交通讯0KB
2025-01-08
亲子教育12.30MB
2025-01-08
亲子教育42.52MB
2025-01-08
网络购物0KB
2025-01-08
商务办公42.46MB
2025-01-08