多年来,大型语言模型(LLMs)已经发展成为一项具有巨大潜力,能够彻底改变医疗行业各个方面的开创性技术。这些模型,如GPT-3,GPT-4和Med-PaLM2,在理解和生成类人文本方面表现出了卓越的能力,使它们成为处理复杂医疗任务和改善病人护理的宝贵工具。它们在多种医疗应用中显示出巨大的前景,如医疗问答(QA)、对话系统和文本生成。此外,随着电子健康记录(EHRs)、医学文献和病人生成数据的指数级增长,LLMs可以帮助医疗专业人员提取宝贵见解并做出明智的决策。 然而,尽管大型语言模型(LLMs)在医疗领域具有巨大的潜力,但仍存在一些重要且具体的挑战需要解决。 当模型用于娱乐对话方面时,错误的...

  QKcLjRV1cZqV   2天前   6   0   0 大模型

视觉语言模型可以同时从图像和文本中学习,因此可用于视觉问答、图像描述等多种任务。本文,我们将带大家一览视觉语言模型领域:作个概述、了解其工作原理、搞清楚如何找到真命天“模”、如何对其进行推理以及如何使用最新版的trl轻松对其进行微调。 什么是视觉语言模型? 视觉语言模型是可以同时从图像和文本中学习的多模态模型,其属于生成模型,输入为图像和文本,输出为文本。大视觉语言模型具有良好的零样本能力,泛化能力良好,并且可以处理包括文档、网页等在内的多种类型的图像。其拥有广泛的应用,包括基于图像的聊天、根据指令的图像识别、视觉问答、文档理解、图像描述等。一些视觉语言模型还可以捕获图像中的空间信息,当提示要...

  QKcLjRV1cZqV   3天前   10   0   0 AI综合

介绍 Meta公司的Llama3是开放获取的Llama系列的最新版本,现已在HuggingFace平台发布。看到Meta持续致力于开放AI领域的发展令人振奋,我们也非常高兴地全力支持此次发布,并实现了与HuggingFace生态系统的深度集成。 Llama3提供两个版本:8B版本适合在消费级GPU上高效部署和开发;70B版本则专为大规模AI应用设计。每个版本都包括基础和指令调优两种形式。此外,基于Llama38B微调后的LlamaGuard新版本也已作为LlamaGuard2(安全微调版本)发布。 我们与Meta密切合作,确保其产品能够无缝集成进HuggingFace的生态系统。在Hub上,您...

  QKcLjRV1cZqV   10天前   15   0   0 大模型

欢迎阅读《HuggingFaceTransformers萌新完全指南》,本指南面向那些意欲了解有关如何使用开源ML的基本知识的人群。我们的目标是揭开HuggingFaceTransformers的神秘面纱及其工作原理,这么做不是为了把读者变成机器学习从业者,而是让为了让读者更好地理解transformers从而能够更好地利用它。同时,我们深知实战永远是最好的学习方法,因此,我们将以在HuggingFaceSpace中运行Microsoft的Phi-2LLM为例,开启我们的HuggingFaceTransformers之旅。 你可能心里会犯嘀咕,现在市面上已有大量关于HuggingFace的教程...

  QKcLjRV1cZqV   15天前   15   0   0 AI综合

对应于其强大的能力,大语言模型(LLM)需要强大的算力支撑,而个人计算机上很难满足这一需求。因此,我们别无选择,只能将它们部署至由本地或云端托管的性能强大的定制AI服务器上。 为何需要将LLM推理本地化 如果我们可以在典配个人计算机上运行最先进的开源LLM会如何?好处简直太多了: 增强隐私保护:私有数据不需要发送至外部API进行推理。 降低延迟:节省网络往返的次数。 支持离线工作:用户可以在没有网络连接的情况下使用LLM(常旅客的梦想!)。 降低成本:无需在API调用或模型托管上花一分钱。 可定制:每个用户都可以找到最适合他们日常工作任务的模型,甚至可以对其进行微调或使用本地检索增强生成(...

  QKcLjRV1cZqV   16天前   21   0   0 AI综合

量化技术通过用低精度数据类型(如8位整型(int8))来表示深度学习模型的权重和激活,以减少传统深度学习模型使用32位浮点(float32)表示权重和激活所带来的计算和内存开销。 减少位宽意味着模型的内存占用更低,这对在消费设备上部署大语言模型至关重要。量化技术也使得我们可以针对较低位宽数据类型进行特殊的计算优化,例如CUDA设备有针对int8或float8矩阵乘法的硬件优化。 市面上有许多可用于量化PyTorch深度学习模型的开源库,它们各有特色及局限。通常来讲,每个库都仅实现了针对特定模型或设备的特性,因而普适性不强。此外,尽管各个库的设计原理大致相同,但不幸的是,它们彼此之间却互不兼容。...

  QKcLjRV1cZqV   23天前   13   0   0 AI综合

今天,我们非常兴奋地宣布部署到CloudflareWorkersAI功能正式上线,这是HuggingFaceHub平台上的一项新服务,它使得通过Cloudflare边缘数据中心部署的先进GPU、轻松使用开放模型作为无服务器API成为可能。 从今天开始,我们将把HuggingFace上一些最受欢迎的开放模型整合到CloudflareWorkersAI中,这一切都得益于我们的生产环境部署的解决方案,例如文本生成推理(TGI)。 通过部署到CloudflareWorkersAI服务,开发者可以在无需管理GPU基础架构和服务器的情况下,以极低的运营成本构建强大的生成式AI(GenerativeAI)应...

  QKcLjRV1cZqV   24天前   22   0   0 AI综合

嵌入模型在很多场合都有广泛应用,如检索、重排、聚类以及分类。近年来,研究界在嵌入模型领域取得了很大的进展,这些进展大大提高了基于语义的应用的竞争力。BGE、GTE以及E5等模型在MTEB基准上长期霸榜,在某些情况下甚至优于私有的嵌入服务。HuggingFace模型hub提供了多种尺寸的嵌入模型,从轻量级(100-350M参数)到7B(如Salesforce/SFR-Embedding-Mistral)一应俱全。不少基于语义搜索的应用会选用基于编码器架构的轻量级模型作为其嵌入模型,此时,CPU就成为运行这些轻量级模型的有力候选,一个典型的场景就是检索增强生成(RetrievalAugmented...

  QKcLjRV1cZqV   2024年04月02日   32   0   0 AI综合

随着生成式人工智能(GenerativeAI,GenAI)革命的全面推进,使用Llama2等开源transformer模型生成文本已成为新风尚。人工智能爱好者及开发人员正在寻求利用此类模型的生成能力来赋能不同的场景及应用。本文展示了如何基于OptimumHabana以及我们实现的流水线类轻松使用Llama2系列模型(7b、13b及70b)生成文本仅需几行代码,即可运行! 我们设计并实现了一个旨在为用户提供极大的灵活性和易用性流水线类。它提供了高层级的抽象以支持包含预处理和后处理在内的端到端文本生成。同时,用户也可以通过多种方法使用该流水线类你可以在OptimumHabana代码库中直接运行ru...

  QKcLjRV1cZqV   2024年03月14日   52   0   0 AI综合

不藏了,近期全网爆火的AI写真项目InstantID,正是来自小红书社区技术创作发布团队。 为了迎接龙年春节的到来,我们的InstantID全新推出「SpringFestival」新春风格!并与著名开源模型社区HuggingFace联手,在小红书APP上,特别策划「你的新春照我包了」有奖互动。只需上传一张照片,30秒内轻松定制你的专属新春照。 活动时间:2月7日至2月25日 参与方式: 在小红书APP内分享你用InstantID生成的新春照。(体验入口指路👉hf.link/iid) 带你的新春照我包了话题发笔记,并关注和@HuggingFace小红书账号,让更多人看到你的创意。 晒出你的P...

  QKcLjRV1cZqV   2024年02月25日   58   0   0 AI综合

概要 开源大型语言模型(LLMs)现已达到一种性能水平,使它们适合作为推动智能体工作流的推理引擎:Mixtral甚至在我们的基准测试中超过了GPT-3.5,并且通过微调,其性能可以轻易的得到进一步增强。 引言 针对因果语言建模训练的大型语言模型(LLMs)可以处理广泛的任务,但它们经常在逻辑、计算和搜索等基本任务上遇到困难。最糟糕的情况是,它们在某个领域,比如数学,表现不佳,却仍然试图自己处理所有计算。 为了克服这一弱点,除其他方法外,可以将LLM整合到一个系统中,在该系统中,它可以调用工具:这样的系统称为LLM智能体。 在这篇文章中,我们将解释ReAct智能体的内部工作原理,然后展示如何使用...

  QKcLjRV1cZqV   2024年02月23日   91   0   0 大模型

今天,Google发布了一系列最新的开放式大型语言模型——Gemma!Google正在加强其对开源人工智能的支持,我们也非常有幸能够帮助全力支持这次发布,并与HuggingFace生态完美集成。 Gemma提供两种规模的模型:7B参数模型,针对消费级GPU和TPU设计,确保高效部署和开发;2B参数模型则适用于CPU和移动设备。每种规模的模型都包含基础版本和经过指令调优的版本。 我们与Google紧密合作,确保Gemma能够无缝集成到HuggingFace的生态系统中。在Hub上,你可以找到这四个公开可访问的模型(包括两个基础模型和两个经过调优的模型)。此次发布的亮点包括: Hub上的模型,...

  QKcLjRV1cZqV   2024年02月23日   60   0   0 AI综合

摘录 关于LLaMA2的全部资源,如何去测试、训练并部署它。 LLaMA2是一个由Meta开发的大型语言模型,是LLaMA1的继任者。LLaMA2可通过AWS、HuggingFace等提供商获取,并免费用于研究和商业用途。LLaMA2预训练模型在2万亿个标记上进行训练,相比LLaMA1的上下文长度增加了一倍。它的微调模型则在超过100万个人工标注数据下完成。 这篇博客包含了所有的相关资源,以帮助您快速入门。包括以下跳转: LLaMA2是什么? 在LLaMA游乐场试玩 模型背后的研究工作 模型的性能有多好,基准测试 如何正确地去提示聊天模型 如何使用PEFT训练模型 如何部署模型进行推理...

  QKcLjRV1cZqV   2024年02月20日   62   0   0 AI综合

这个系列目的是揭开嵌入的神秘面纱,并展示如何在你的项目中使用它们。第一篇博客介绍了如何使用和扩展开源嵌入模型,选择现有的模型,当前的评价方法,以及生态系统的发展状态。第二篇博客将会更一步深入嵌入并解释双向编码和交叉编码的区别。进一步我们将了解检索和重排序的理论。我们会构建一个工具,它可以来回答大约400篇AI的论文的问题。我们会在末尾大致讨论一下两个不同的论文。 你可以在这里阅读,或者通过点击左上角的图标在GoogleColab中运行。现在我们正式开始学习! 简短概述 SentenceTransformers支持两种类型的模型:Bi-encoders和Cross-encoders。Bi-enc...

  QKcLjRV1cZqV   2024年02月19日   92   0   0 大模型

人工智能中最引人入胜的话题莫过于深度强化学习(DeepReinforcementLearning)了,我们在2022年12月5日开启了《深度强化学习课程v2.0》的课程学习,有来自全球众多学员们的参加。课程已经完成更新,并且发布在HuggingFace官网https://hf.co/learn/deep-rl-course/ 感谢人邮老师的提议和社区的支持,我们目前完成了这个课程的中文翻译和出版计划。 我们计划在本公众号连载,让社区的成员们先睹为快,与此同时广泛的向社区成员们征集对中文课程内容的建议和Bug报告。 今天连载课程的第一章:深度强化学习简介,你可以在阅读原文里找到我们的协作链接...

  QKcLjRV1cZqV   2024年02月19日   80   0   0 AI综合

在这篇博客中,我们将通过一个端到端的示例来讲解Transformer模型中的数学原理。我们的目标是对模型的工作原理有一个良好的理解。为了使内容易于理解,我们会进行大量简化。我们将减少模型的维度,以便我们可以手动推理模型的计算过程。例如,我们将使用4维的嵌入向量代替原始的512维嵌入向量。这样做可以更容易手动推理数学计算过程!我们将使用随机的向量和矩阵初始化,但如果你想一起动手试一试的话,你也可以使用自己的值。 如你所见,这些数学原理并不复杂。复杂性来自于步骤的数量和参数的数量。我建议你在阅读本博文之前阅读(或一起对照阅读)图解Transform(TheIllustratedTransforme...

  QKcLjRV1cZqV   2024年02月19日   49   0   0 AI综合

来自社区的SD-XLDreamboothLoRA微调最佳实践指南 太长不看版 我们把Replicate在SDXLCog训练器中使用的枢轴微调(PivotalTuning)技术与Kohya训练器中使用的Prodigy优化器相结合,再加上一堆其他优化,一起对SDXL进行DreamboothLoRA微调,取得了非常好的效果。你可以在diffusers上找到我们使用的训练脚本🧨,或是直接在Colab上试着运行一下。 如果你想跳过技术讲解直接上手,可以使用这个HuggingFaceSpace,通过简单的UI界面用我们精选的超参直接开始训练。当然,你也可以尝试干预这些超参的设置。 概述 使用Dreamb...

  QKcLjRV1cZqV   2024年02月19日   71   0   0 AI综合

这篇博客是一篇来自MetaAI,关于指令微调Llama2的扩展说明。旨在聚焦构建指令数据集,有了它,我们则可以使用自己的指令来微调Llama2基础模型。 目标是构建一个能够基于输入内容来生成指令的模型。这么做背后的逻辑是,模型如此就可以由其他人生成自己的指令数据集。这在当想开发私人个性化定制模型,如发送推特、写邮件等,时很方便。这也意味着你可以通过你的邮件来生成一个指令数据集,然后用它来训练一个模型来为你写邮件。 好,那我们来开始吧?我们将进行: 定义应用场景细节并创建指令的提示词模板 构建指令数据集 使用trl与SFTTrainer指令微调Llama2 测试模型、进行推理 1.定义应用场...

  QKcLjRV1cZqV   2024年02月19日   55   0   0 AI综合

辞旧迎新春节到,家家户户好热闹。HuggingFace中国团队成员祝各位社区成员们新春快乐,万事如意! 过去的一年我们持续看到AI技术的腾飞和发展,以及诸多机构为开源AI作出巨大的贡献。非常感谢将模型、数据集和应用Demo发布在HuggingFace上的团队,新的一年,我们也会持续发掘和介绍更多国内开发者/研究机构发布在HuggingFace上的作品。也欢迎大家主动联系我们(ง•̀_•́)ง 新年到,我们中国团队也为大家奉上一些我们为大家专门准备的春节活动《你的新春照我包了》! 参与HF和小红书官方合作的活动《你的新春照我包了》 在这个春节,HuggingFacex小红书邀请你一起晒「创意新春...

  QKcLjRV1cZqV   2024年02月19日   62   0   0 AI综合

SetFitABSA是一种可以有效从文本中检测方面级情感的技术。 方面级情感分析(Aspect-BasedSentimentAnalysis,ABSA)是一种检测文本中特定方面的情感的任务。例如,在“这款手机的屏幕很棒,但电池太小”一句中,分别有“屏幕”和“电池”两个方面,它们的情感极性分别是正面和负面。 ABSA应用颇为广泛,有了它我们可以通过分析顾客对产品或服务的多方面反馈,并从中提取出有价值的见解。然而,ABSA要求在样本标注时对训练样本中涉及的各个方面进行词元级的识别,因此为ABSA标注训练数据成为了一件繁琐的任务。 为了缓解这一问题,英特尔实验室和HuggingFace联袂推出了Se...

  QKcLjRV1cZqV   2024年01月19日   13   0   0 AI综合
关注 更多

空空如也 ~ ~

粉丝 更多

空空如也 ~ ~