OpenAI采取措施提升AI生成内容透明度

OpenAI加入了Coalition for Content Provenance and Authenticity (C2PA) steering committee,并将整合这一开放标准的元数据到其生成式AI模型中,以增加关于生成内容的透明度。图片{ width=50% }


C2PA标准允许数字内容通过元数据证明其起源,无论是完全由AI创建,还是使用AI工具进行编辑,或者是传统的捕捉。 OpenAI已经开始将C2PA元数据添加到其最新DALL-E 3模型在ChatGPT和OpenAI API中的图像输出中。当OpenAI的即将推出的视频生成模型Sora被广泛使用时,这些元数据将被集成进去。 OpenAI解释说:“人们仍然可以在没有这些信息的情况下创建欺骗性内容(或可以删除它),但他们无法轻易伪造或更改这些信息,从而使其成为建立信任的重要资源。” 此举是在希望遏制AI生成内容在美国、英国和其他一些国家今年大选前可能误导选民的日益增长的担忧之际。验证AI创建的媒体可能有助于打击旨在传播虚假信息的Deepfake和其他操纵内容的活动。尽管技术措施有所帮助,但OpenAI承认,实际上实现内容的真实性需要平台、创作者和内容处理者的集体行动,以便保留最终消费者的元数据。 除了整合C2PA,OpenAI还正在开发新的来源方法,例如用于音频和图像检测分类器的防篡改水印,以识别AI生成的视觉。 OpenAI已经向其研究员访问计划开放了DALL-E 3图像检测分类器的申请。该工具预测了图片来自OpenAI模型的可能性。该公司表示:“我们的目标是促进独立研究,评估分类器的有效性,分析其现实世界的应用,揭示这种使用的相关问题,并探索AI生成内容的特征。” 内部测试显示,在从DALL-E 3视觉中正确识别约98%的图片以及不到0.5%的非AI图像被错误标记的情况下,该分类器在区分DALL-E和其他生成式AI模型产生的图像方面遇到困难。 OpenAI还在其Voice Engine定制语音模型中已经整合了水印技术,目前处于有限预览阶段。 该公司相信,对来源标准的更广泛采用将导致元数据伴随内容通过其完整生命周期,填补了数字内容真实性实践中的“关键差距”。 OpenAI正在与微软合作启动价值200万美元的社会适应基金,以支持AI教育和理解,包括通过AARP、国际IDEA和人工智能合作伙伴关系。 OpenAI表示:“虽然上述的技术解决方案为我们的防御提供了积极的工具,但实际上实现内容真实性将需要集体行动。” OpenAI指出:“我们在来源方面的努力只是更广泛行业里的一部分——我们的许多同行研究实验室和生成AI公司也在推进这个领域的研究。我们赞扬这些努力——业界必须合作并分享见解,以增进我们的理解,并继续促进网络透明度。”
(摄影师:Marc Sendra Martorell)

查看更多:Chuck Ros, SoftServe: 以负责任的方式提供变革性AI解决方案

想要从行业领袖那里了解更多关于AI和大数据的知识吗?请查看将在阿姆斯特丹、加利福尼亚和伦敦举行的AI及大数据博览会。这一全面的活动与其他领先的活动同时举行,包括智能自动化会议、BlockX、数字转型周和网络安全与云博览会。 探索由TechForge提供的其他即将举办的企业技术活动和网络研讨会。

标签:ai、人工智能、c2pa、道德、genai、生成式ai、openai、社会



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Accelerating ML application development: Production-ready Airflow integrations with critical AI tools

Generative AI and operational machine learning play crucial roles in the modern data landscape by enabling organizations to leverage their data to power new products and increase customer satisfaction.图片{ width=50% }


These technologies are used for virtual assistants, recommendation systems, content generation, and more. They help organizations build a competitive advantage through data-driven decision making, automation, enhanced business processes, and customer experiences.
Apache Airflow is at the core of many teams’ ML operations, and with new integrations for Large Language Models (LLMs), Airflow enables these teams to build production-quality applications with the latest advancements in ML and AI.
Simplifying ML Development
All too frequently, machine learning models and predictive analytics are created in silos, far removed from production systems and applications. Organizations face a perpetual challenge to turn a lone data scientist’s notebook into a production-ready application with stability, scaling, compliance, etc.
Organizations that standardize on one platform for orchestrating both their DataOps and MLOps workflows, however, are able to reduce not only the friction of end-to-end development but also infrastructure costs and IT sprawl. While it may seem counterintuitive, these teams also benefit from more choice. When the centralized orchestration platform, like Apache Airflow, is open-source and includes integrations to nearly every data tool and platform, data and ML teams can pick the tools that work best for their needs while enjoying the benefits of standardization, governance, simplified troubleshooting, and reusability.
Apache Airflow and Astro (Astronomer’s fully managed Airflow orchestration platform) is the place where data engineers and ML engineers meet to create business value from operational ML. With a massive number of data engineering pipelines running on Airflow every day across every industry and sector, it is the workhorse of modern data operations, and ML teams can piggyback off of this foundation for not only model inference but also training, evaluation, and monitoring.
Optimizing Airflow for Enhanced ML Applications
As organizations continue to find ways to leverage large language models, Airflow is increasingly front and center for the operationalization of things like unstructured data processing, Retrieval Augmented Generation (RAG), feedback processing, and fine-tuning of foundation models. To support these new use-cases and to provide a starting point for Airflow users, Astronomer has worked with the Airflow Community to create Ask Astro—as a public reference implementation of RAG with Airflow for conversational AI.
More broadly, Astronomer has led the development of new integrations with vector databases and LLM providers to support this new breed of applications and the pipelines that are needed to keep them safe, fresh, and manageable.
Connect to the Most Widely Used LLM Services and Vector Databases
Apache Airflow, in combination with some of the most widely used vector databases (Weaviate, Pinecone, OpenSearch, pgvector) and natural language processing (NLP) providers (OpenAI, Cohere), offers extensibility through the latest in open-source development. Together, they enable a first-class experience in RAG development for applications like conversational AI, chatbots, fraud analysis, and more.
OpenAI
OpenAI is an AI research and deployment company that provides an API for accessing state-of-the-art models like GPT-4 and DALL·E 3. The OpenAI Airflow provider offers modules to easily integrate OpenAI with Airflow. Users can generate embeddings for data, a foundational step in NLP with LLM-powered applications.
View tutorial → Orchestrate OpenAI operations with Apache Airflow
Cohere
Cohere is an NLP platform that provides an API to access cutting-edge LLMs. The Cohere Airflow provider offers modules to easily integrate Cohere with Airflow. Users can leverage these enterprise-focused LLMs to easily create NLP applications using their own data.
View tutorial → Orchestrate Cohere LLMs with Apache Airflow
Weaviate
Weaviate is an open-source vector database, which stores high-dimensional embeddings of objects like text, images, audio, or video. The Weaviate Airflow provider offers modules to easily integrate Weaviate with Airflow. Users can process high-dimensional vector embeddings using an open-source vector database, which provides a rich set of features, exceptional scalability, and reliability.
View tutorial → Orchestrate Weaviate operations with Apache Airflow
pgvector
pgvector is an open-source extension for PostgreSQL databases that adds the capability to store and query high-dimensional object embeddings. The pgvector Airflow provider offers modules to easily integrate pgvector with Airflow. Users can unlock powerful functionalities for working with vectors in a high-dimensional space with this open-source extension for their PostgreSQL database.
View tutorial → Orchestrate pgvector operations with Apache Airflow
Pinecone
Pinecone is a proprietary vector database platform designed for handling large-scale vector-based AI applications. The Pinecone Airflow provider offers modules to easily integrate Pinecone with Airflow.
View tutorial → Orchestrate Pinecone operations with Apache Airflow
OpenSearch
OpenSearch is an open-source distributed search and analytics engine based on Apache Lucene. It offers advanced search capabilities on large bodies of text alongside powerful machine learning plugins. The OpenSearch Airflow provider offers modules to easily integrate OpenSearch with Airflow.
View tutorial → Orchestrate OpenSearch operations with Apache Airflow
Additional Information
By enabling data-centric teams to more easily integrate data pipelines and data processing with ML workflows, organizations can streamline the development of operational AI, and realize the potential of AI and natural language processing in an operational setting. Ready to dive deeper on your own? Discover available modules designed for easy integration—visit the Astro Registry to see the latest AI/ML sample DAGs.



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

神经链接的第一个植入物部分从患者的大脑上脱落

神经链接的第一个尝试将芯片植入人类颅骨遭遇意外挫折,因为设备开始从患者的大脑中脱落,该公司周三披露。


患者Noland Arbaugh在今年2月接受手术,将神经链接芯片植入他的大脑,但设备的功能在植入后的一个月内开始下降。连接微型计算机与大脑的一些线索已经开始收缩。神经链接没有透露为什么设备部分从Arbaugh的大脑中脱落,但在一篇博文中表示,其工程师已经改进了植入物并恢复了功能。根据首次披露芯片问题的《华尔街日报》的报道,减少的功能似乎并未危及Arbaugh,他仍然可以使用植入物通过思维在计算机上下国际象棋。在脱落问题曝光后,考虑了拔除植入物的可能性。根据神经网站的博文,Arbaugh的植入物在2月下旬开始出现问题,当芯片的一些线索从大脑中收缩时,“导致有效电极数量减少”。这降低了设备的位每秒,这实质上是植入物执行任务的表现指标。神经链接通过在颅骨中植入一个小容器来实现其植入物的功能,容器中装有处理芯片和电池,以及64根细线,这些细线与大脑组织连接并与其发送的神经信号进行交互。四肢瘫痪的Arbaugh可以使用植入物控制计算机设备,如键盘或鼠标光标。Arbaugh在3月的演示中赞扬这种植入物,称其“已经改变了他的生活”,同时表示它并不完美,他们“遇到了一些问题”。在神经链接进行其第一个人类植入之前,该公司在包括羊、猪和猴在内的动物身上进行了多年的广泛实验。监管机构已对公司在这些动物实验实验室的做法展开了多项调查,今年早些时候表示在加利福尼亚的一个研究机构发现了质量控制和记录保存问题。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI takes steps to boost AI-generated content transparency

OpenAI加入了Coalition for Content Provenance and Authenticity (C2PA) steering committee,并将整合开放标准的元数据到其生成式AI模型中,以增加所生成内容的透明度。图片{ width=50% }


C2PA标准允许数字内容通过元数据进行认证,证明其来源,无论是完全由AI创建,使用AI工具进行编辑,还是传统方式捕获。OpenAI已经开始在其最新的DALL-E 3模型输出中的图像中添加C2PA元数据,该模型集成于ChatGPT和OpenAI API中。在OpenAI的即将推出的视频生成模型Sora中广泛推出时,元数据将被整合进去。
OpenAI解释道:“即使没有这些信息(或者可能删除它),人们仍然可以创建欺骗性内容,但他们无法轻易伪造或修改这些信息,这使其成为建立信任的重要资源。”
此举是针对日益增长的担忧,即AI生成的内容可能在美国、英国和其他国家今年的重大选举前误导选民。认证AI创建的媒体有助于应对旨在传播虚假信息的deepfakes和其他篡改内容的问题宣传活动。
尽管技术措施有所帮助,但OpenAI承认,在实践中实现内容的真实性需要平台、创作者和内容处理方的集体行动来保留终端消费者的元数据。
除了整合C2PA,OpenAI还正在开发新的出处方法,如耐篡改水印技术用于音频和图像检测分类器,以识别AI生成的视觉。OpenAI已经向研究人员开放了DALL-E 3图像检测分类器的访问申请,通过其研究人员访问计划。该工具预测了图像来自OpenAI模型的可能性。“我们的目标是启动独立研究,评估分类器的有效性,分析其实际应用,提出相关考虑因素以及探索AI生成内容的特性,”该公司表示。内部测试显示,在区分非AI图像和DALL-E 3视觉方面具有较高准确性,大约有98%的DALL-E图像被正确识别,少于0.5%的非AI图像被错误标记。然而,分类器在区分由DALL-E和其他生成式AI模型产生的图像方面更为困难。OpenAI还将水印技术融入其Voice Engine定制语音模型,目前处于有限预览阶段。该公司相信,增加出处标准的采用将使元数据随内容通过其完整生命周期,填补“数字内容真实性实践中关键差距。”
OpenAI与微软合作成立了一项200万美元的社会抗干扰基金,以支持AI教育和理解,包括通过AARP、国际民主促进协会和人工智能合作伙伴关系。OpenAI声称:“尽管上述技术解决方案为我们提供了积极的防御工具,但实际上实现内容的真实性将需要集体行动。”
“我们的出处工作仅是更广泛行业努力的一部分,我们的许多同行研究实验室和生成式AI公司也正在推进这一领域的研究。我们赞赏这些努力-行业必须合作并分享见解,以增强我们的了解,并继续在线上推进透明度。”
[图片来源:Marc Sendra Martorell]
参见:Chuck Ros, SoftServe: 以负责任的方式提供变革性人工智能解决方案

想要从业界领袖那里了解更多关于人工智能和大数据的知识?查看将在阿姆斯特丹、加利福尼亚和伦敦举办的AI & 大数据博览会。这个全面的活动与其他领先的活动同期举行,包括智能自动化会议、BlockX、数字转型周和网络安全与云博览会。
探索由TechForge提供的其他即将举行的企业技术活动和网络研讨会。


注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Nuspire获得网络安全卓越奖评选的“最佳MSSP”称号

Nuspire,一家领先的托管安全服务提供商(MSSP),在网络安全行业拥有逾25年的专业服务经验,自豪地宣布其最近荣膺著名的网络安全卓越奖(Cybersecurity Excellence Awards)“最佳MSSP”称号。图片{ width=60% }


此殊荣突显了Nuspire在提供一流托管安全服务方面的卓越和创新。

庆祝其成立25周年,Nuspire已经牢固确立自己作为托管安全的领导者,在适应并发展以满足网络安全格局不断变化的需求方面做出了巨大努力。该公司提供广泛的服务,包括托管安全服务(MSS)、托管检测与响应(MDR)和托管端点检测与响应(EDR)。这些服务由先进技术和全方位的网络安全咨询能力支持,如事故准备、威胁建模和高级顾问服务。

“在Nuspire,我们致力于适应客户在其网络安全旅程中的位置,灵活地调整我们的解决方案以满足其特定需求,并建立确实的伙伴关系,”Nuspire首席执行官Lewie Dunsworth表示。“获得‘最佳MSSP’称号的这个奖项反映了我们团队的奉献精神和创建能够持续改善客户安全防御和姿态的伙伴关系和解决方案的战略。”

该奖项认可了Nuspire在网络安全管理方面的创新方法,特别强调了myNuspire平台在改变安全计划管理中的作用。这种技术无关工具为客户的安全环境提供了无与伦比的洞察力,能够提供主动的、以情报为基础的建议,并有效地解决技术复杂性和警报过载等问题。此外,Nuspire对创新的承诺体现在其令人瞩目的客户保留率上,这一比率始终保持在90%以上。

“我们祝贺Nuspire荣获2024年网络安全卓越奖最佳托管安全服务提供商(MSSP)类别奖项,”Cybersecurity Insiders首席执行官、领英上拥有60万成员的信息安全社区的创始人Holger Schulze说道,该社区主办了第9届网络安全卓越奖。“在300多个类别中存在超过600项报名作品,该奖项竞争激烈。Nuspire的成就反映出对网络安全卓越、创新和领导力核心原则的杰出承诺。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

IBM Copilot Runway引领AI驱动的业务转型

IBM(NYSE: IBM)今天宣布推出IBM Copilot Runway,这是IBM咨询推出的一个新产品,旨在帮助企业创建、定制、部署和管理协作助手,其中包括针对Microsoft 365的Copilot。图片{ width=60% }


通过这一新产品,客户将能够将协作助手的生成式人工智能融入其组织,以增强生产力并推动业务成功。IBM咨询还成立了一个专门的顾问实践团队,这些顾问拥有Microsoft协作助手技能、资格和专业知识,以指导客户完成他们的AI转型之旅。

作为这一新产品的一部分,IBM将与客户合作构建定制的协作助手,可以根据特定业务场景的需要进行定制,并有效部署,以帮助减少通常需要进行的实施所需的时间和精力。IBM最初将重点帮助客户解决优先应用案例,包括客户和现场服务、员工体验以及采购和财务 - 以及特定行业,如金融服务、零售和CPG、政府和供应链。这些用例将包括:

  • 采购和财务合同协作助手,帮助专业人士从合同中提取有价值的见解。
  • 客户服务和现场服务协作助手,为代理商和技术人员提供访问自助选项以及节省时间的生成式人工智能搜索。
  • 员工体验协作助手,旨在增强员工参与度。

IBM和Microsoft已经为各种行业的客户提供了一系列AI解决方案和服务。事实上,IBM咨询与Virgin Money合作开发并推出了Redi,这是一个会话式虚拟助手,在Virgin Money信用卡应用程序中帮助信用卡客户。由Virgin Money的Microsoft协作助手套件提供支持的Redi证明了合作的力量。

“我们的客户告诉我们,他们在信用卡应用中与Redi互动有多么愉快,”Virgin Money数字提案主管Adam Paice说道。“我们与IBM的合作帮助我们充分利用Microsoft协作助手,在创新和控制之间找到平衡。”

IBM咨询还正在全球各大洲的全球创新中心网络中扩大其Microsoft协作助手的能力和容量。例如,这些能力正在用于与客户共同创建解决方案,该方案将在IBM咨询位于印度班加罗尔的全新IBM-Microsoft体验区中得以体现——这在合作中是首次。

在体验区,来自世界各地和各个行业的客户正在与IBM咨询共同在各种技术站点上共同构想和共同创造生成式人工智能驱动的解决方案-利用Microsoft技术,包括Copilot。今年晚些时候,IBM咨询计划在罗马尼亚、英国和美国开设额外的IBM-Microsoft体验区,这些地区的客户可以探索Copilot的强大功能。此外,IBM和Microsoft邀请了800名参与者,包括客户和专家,举办了第二次以客户为中心的黑客马拉松活动,构建利用Microsoft协作助手的解决方案-获奖者将于本季度宣布。

“随着IBM和Microsoft加强合作关系,我们将有能力为更多客户提供Microsoft协作助手,通过生成式人工智能的力量实现生产力超级发展和创造力提升,”IBM咨询高级副总裁John Granger说道。“我们专门的IBM咨询Microsoft实践团队以及遍布全球的Copilot体验区,帮助我们与客户取得联系,并为他们带来适合其业务的生成式AI解决方案。”

“客户需要正确的合作伙伴和技术,才能在企业范围内负责任地扩展AI,”Microsoft全球合作伙伴解决方案总经理Dinis Couto表示。“有了IBM专门的Microsoft Copilot专家团队,我们有信心帮助更多客户解锁企业的生成式AI的全部潜力。”

IBM为其从业者购买了Microsoft 365的Copilot。为了继续发展这一合作关系,IBM还通过收购Neudesic和Bluetab等公司,投资于扩大其专家团队和能力。

IBM咨询从业者使用一系列领先的AI软件技术和来自IBM及其战略合作伙伴(如Microsoft)的多个模型。IBM数据和AI顾问通常应用多个模型,每个模型应用于特定用例。不同的模型可以针对特定任务进行优化,从而提高性能和效率。

Microsoft是Microsoft Corporation在美国、其他国家或两者的商标。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

TIA发布全球数据中心基础设施标准修订版C

Latest edition of TIA 942 standard builds on previous version to dramatically improve data center performance, efficiencies and resilience
美国电信工业协会——连接世界的信任行业协会——今天宣布更新其数据中心电信基础设施标准 ANSI/TIA-942。图片{ width=60% }


这份新发布的文件标志着原始 ANSI/TIA-942 标准诞生以来的第三次修订,该标准规定了全球数据中心设计和实施的要求和建议。
TIA根据美国国家标准委员会(ANSI)的程序制定其标准,该程序要求每五年修订、确认或废止一项标准。ANSI/TIA-942-C 标准相对于之前的 TIA-942-B 版本有几项重大更新,包括承认新的媒体类型和连接要求以及引用其他标准开发组织(SDOs)发布的技术文档。
TIA标准副总裁 Tom McGarry 表示:“TIA-942 标准基于先前版本,结合新技术,将促进数据中心性能和效率的提升。”“许多这些增强功能是基于宝贵的用户反馈而制定的。TIA-942 的这一最新更新对于确保在数据中心中实施新应用和技术能够在各个方面实现性能、服务交付和韧性的提升至关重要。”
ANSI/TIA-942-C 的主要增强包括:

  • 吸收以前发表的关于边缘数据中心的文件
  • 承认新的电缆媒体和连接要求
  • 与电缆、地板负载能力和最小机柜宽度相关的新要求和建议
  • 引用其他技术文件,包括数据处理环境和边缘计算的推荐和要求
  • 修改和添加信息附录和规定附件,包括场地选择和空间考虑因素
  • 基于行业反馈和最佳实践的众多要求的澄清

TIA-942 适用于所有类型的数据中心,从超大规模到合作场所再到企业设施,涵盖架构、电信、电力、冷却、防火、物理安全、安全性和监控。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Hyperscale云支持AI:GCP技术领先,AWS在价格方面表现卓越

New Omdia研究表明,各大云提供商正在激烈竞争,以实现规模化AI交付,Google Cloud Platform(GCP)在前沿技术方面领先,而Amazon Web Services(AWS)专注于提供具有成本效益的解决方案。图片{ width=60% }


GCP受益于谷歌作为基础AI研究强大力量的地位,而Amazon Web Services则受益于其现有业务的巨大规模和在日常运营方面的卓越表现。希望采用最新技术的客户最适合选择GCP,而那些关注价格的客户则最适合选择AWS。然而,微软Azure似乎正在专注满足OpenAI对容量的需求。
Omdia最近发表的研究《Hyperscale Cloud Providers的AI推断产品与策略》报告分析了云基础设施主要供应商如何提供推断 - 即从AI模型训练完成后生成内容或答案的过程。根据定义,当AI应用进入生产阶段时,就需要推断,需求是由最终用户需求驱动的。因此,它代表了AI项目和实际现实的交集。随着越来越多的AI应用进入生产阶段,Omdia预计推断将占整体AI计算需求的增长份额。
“这个行业的竞争非常激烈。谷歌在基础AI研究方面具有优势,而AWS在运营效率方面表现出色,但两家公司都拥有令人印象深刻的定制硅芯片,”Omdia的高级计算负责人Alexander Harrowell表示。 “微软采用了一种非常不同的路径,最初集中于FPGA,但现在急切转向定制芯片。然而,无论是谷歌还是微软,在CPU推断方面都明显落后于AWS。AWS的Graviton 3和4芯片显然旨在提供强大的AI推断选项,坚持以CPU为重点的方法有助于简化项目。”
超大规模云供应商对AI行业的大多数计算服务至关重要,可能是建立AI模型推断基础架构以服务用户的第一联系点。Omdia的报告,可通过Omdia的高级计算情报服务获得,旨在向企业提供在选择适当提供商和选择的选项时的关键建议。该研究提供了有关定价和定制AI硅片的可用性的分析,如Google TPUs,旗舰,中档和入门级GPU,以及超大规模云供应商为AI推断推荐的CPU选项。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

ODAIA & Veeva 合作加速生命科学领域人工智能的采用

ODAIA是第一家加入Veeva AI合作伙伴计划的公司,并为Veeva Vault CRM提供行业首个GenAI解决方案
公司将在Veeva Vault CRM中提供基于LLM驱动的实时预测洞察,以增强呼叫计划、事先洞察和HCP参与度
Veeva商业峰会 - ODAIA今天宣布,它正在扩大与Veeva Systems的产品合作关系,加入Veeva AI合作伙伴计划,以推动在生命科学领域使用生成式人工智能(GenAI)。图片{ width=60% }


作为该计划中的第一家产品合作伙伴,ODAIA将提供集成的GenAI解决方案,可在Veeva Vault CRM中提供实时预测型洞察。销售团队将能够通过增强呼叫计划和事先计划来推动与医疗保健专业人员(HCP)进行更有针对性、相关性、及时性和个性化的互动。

ODAIA平台MAPTUAL是制药行业的首个且唯一的客户科学云,将数据科学和行为科学与人工智能和机器学习相结合,以深入了解HCP及其患者的旅程。 MAPTUAL分析大量数据,实时预测未来的HCP行为趋势和处方模式。创新公司,包括五家前十五大生物制药公司中的三家,使用ODAIA来改进HCP的定位和参与度,并更快地让治疗措施传递给患者。

“GenAI是一种正在快速发展的新技术。 Veeva的战略是使我们的客户和合作伙伴能够开发与任何Veeva Vault应用程序兼容的AI解决方案,”Veeva商业战略执行副总裁Paul Shawah表示。“为销售代表提供由AI驱动的实时洞察可以简化并增强事先计划,从而促进更有价值的与HCP的互动。”

Typical GenAI copilot方法依赖于用户编写多个提示来生成期望的答案和输出,但结果往往不一致。 ODAIA GenAI解决方案采用引导大型语言模型(LLM),旨在自动摄取和处理数据。现在公司可以表面并提供针对销售代表的摘要洞察,首次即更准确地提供 - 一切不需要用户生成的提示。

ODAIA告诉销售代表在访问HCP之前需要了解的一切,从处方行为和竞争洞察到患者触发器和个人及非个人的促销活动。使用Vault Direct Data API访问Vault CRM数据,ODAIA LLM引擎将在Vault CRM中即时为销售代表提供定制洞察,使销售代表可以在他们为周、天或个别呼叫做准备时,直接在其当前工作流程中了解详细信息。

“销售领导希望他们的团队专注于与HCP的互动,而不是提示工程和弄清楚与copilot工具交谈的正确问题。 我们的LLM引擎可以自动向用户提供他们甚至都不会考虑问的洞见,”ODAIA首席执行官Philip Poulidis表示。“借助Veeva的高速Direct Data API,我们可以在Veeva Vault CRM中为销售代表提供清晰而可操作的实时细节,以增强整个HCP参与过程,使其更及时、相关和有效。”

ODAIA的GenAI解决方案目前处于早期采用阶段,供选择的客户使用。计划于2024年第3季度在Vault CRM中全面推出。

要了解更多信息,请参加ODAIA在Veeva商业峰会上的创新剧场演讲,时间为2024年5月8日星期三,下午12:30至12:45,在CRM Suite剧场。首席执行官Philip Poulidis将演示如何利用先进的人工智能技术来自动化数据分析,并在Vault CRM中提供个性化的GenAI驱动洞察。要在活动中安排与ODAIA团队的会议,请访问https://www.odaia.ai/event/veeva-commercial-summit-2024。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

深夜重磅!谷歌AlphaFold 3首发Nature,预测精准度提高100%,AI能帮助治疗癌症和免疫病

刚刚,顶级科学期刊英国《Nature》(自然)杂志发表了一份重磅、突破性研究论文。

北京时间5月8日23点,谷歌DeepMind和其英国子公司Isomorphic Labs联合团队在《自然》杂志上发表一份共46页的成果,推出全新AI蛋白质结构预测模型AlphaFold 3,可准确预测生物分子相互作用的结构。


具体来说,新的AlphaFold 3拥有更强的生成式AI模型能力,效果全面提升。对于蛋白质与其他分子的相互作用,与现有预测方法相比,AlphaFold 3改进了至少50%;对于一些重要的相互作用领域,AlphaFold 3预测精(准确)度提高一倍(100%),从而对蛋白质、核酸、小分子、配体、修饰残基等更广泛生物分子的复合物进行联合结构预测,有望帮助人们治疗癌症、免疫性疾病等。

稍早前举行的沟通会上,本论文共同监督作者、谷歌DeepMind联合创始人、CEO戴密斯•哈萨比斯(Demis Hassabis)对钛媒体App等表示,对于团队来说,AlphaFold 3的发布是一个重要的“里程碑”,同时也是用 AI 技术“理解和建模生物学”道路上迈出的重要一步。

“相比此前研究,AlphaFold 3不仅能够模拟蛋白质与其他分子的相互作用,而且还能准确预测包括DNA、RNA、配体等生物分子结构以及它们如何相互作用,从而能改变我们对生物世界和药物发现的理解,这非常重要。这是我们和Isomorphic共同正在推进的事情。我们非常自豪地在《自然》杂志新论文中宣布这些新突破发现、新结果和新方法。”Demis Hassabis表示。

展望未来,DeepMind研究人员在交流中表示,团队将继续埋头研究,从第一性原理出发,用 AI 解决化学、生物学中前沿技术问题,从而有助于改变人类设计下一代生物疗法方式,让科学家更多了解细胞系统的复杂性、结构、相互作用等,推动药物作用和研发等。

“虽然这是 AI 驱动生物学研究的重要时刻,但 AI 加速生物学的潜力是无限的。AlphaFold AI 模型的进一步发展,将加深人类对生物学和生命构建模块的理解,以实现我们最终目标——利用 AI 重构整个药物发现过程。”论文研究团队表示。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB