摩利·罗素的父亲表示,禁止智能手机可能带来更多伤害

Ian Russell 父亲表示科技公司需要改变

政府提议禁止向16岁以下的未成年人出售智能手机并提高访问社交媒体的最低年龄可能会造成更多伤害,摩利·罗素的父亲警告称。


Ian Russell表示,加强社交媒体平台监管的压力潮已不足为奇,但他表示对一波新的打击计划持有异议。在《卫报》上撰文,Russell表示,没有好好考虑的政策可能会产生意想不到的后果。“通过匆忙引入听起来可能有吸引力但研究已表明可能存在重大缺陷的新措施,我的担忧在于政府可能引入一套未经深思熟虑的措施,导致多种意想不到的后果。简言之,许多提议可能带来更多伤害而不是益处。”他说。

Russell在女儿莫利逝世后成为在线安全辩论中的重要声音。莫利在2017年11月自杀,此前在Instagram和Pinterest上浏览了大量与自杀、抑郁、自残和焦虑相关的内容。在2022年的一次调查中,裁定莫利是“死于自残行为,同时遭受抑郁症和网络内容的负面影响”。

政府正准备就儿童使用智能手机和社交媒体展开磋商。预计将包括禁止向16岁以下未成年人出售智能手机、使父母更容易对设备设置家长控制,并将社交媒体应用的最低年龄从13岁提高至16岁。

Russell表示,“过于侵入性”的家长控制可能削弱儿童与父母之间的信任,并减少年轻人向有害内容和互动报告的可能性。他补充说,禁止16岁以下青少年使用社交媒体将惩罚他们而不是社交媒体公司。“这将惩罚儿童,却让科技公司因未能负责任地构建其产品而置身事外,”他说,并补充称“儿童告诉我们,上网对他们的生活至关重要”。

Russell将推测的智能手机出售禁令描述为“幼稚”,因为这种举措最多只能推迟与有害在线内容的接触,但无法消除危险。Russell一家设立了由Ian Russell担任主席的莫利·罗斯基金会,旨在倡导改善在线安全。尽管对这些提议表示担忧,但他表示仍然明确需要采取进一步行动,尽管最近已推出《在线安全法案》强制社交媒体公司保护儿童免受有害内容的侵害。

去年,Russell表示,在女儿的调查中,法医建议改善社交媒体网站的儿童安全,科技公司的回应“令人失望且不足为奇”。Russell呼吁“加强”《在线安全法案》,他希望看到下一届政府在下一届议会出台更加严格的关于自残内容的法规,并加强对平台内部运作的审查。他表示,下一届政府可以通过引入“既强硬又有节制”的后续立法来实现这一目标。

一位政府发言人表示:“我们使英国成为全球最安全的儿童在线环境的承诺是坚定不移的,这可以从我们里程碑式的在线安全法案中看出。”

探索更多相关主题内容:网络安全、智能手机、儿童、社交媒体、数字媒体、手机、家长和育儿。


。注意:Title、Date、Body 三个部分的内容,放入到对应的位置,Title部分内容需要翻译为中文。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

FT and OpenAI ink partnership amid web scraping criticism

Financial Times(《金融时报》)和OpenAI宣布达成战略合作伙伴关系和许可协议,将使报纸的新闻内容整合到ChatGPT中,并共同开发新的AI产品供FT读者使用。图片{ width=50% }


然而,仅仅因为OpenAI正在与出版商合作,并不意味着它就不再未经许可从网络上抓取信息了。
根据此协议,ChatGPT用户将能够在回应相关查询时看到FT新闻的选定摘要、引用和丰富链接。此外,FT今年早些时候成为了ChatGPT企业版的客户,为所有员工提供了了解该技术并从其潜在的生产力收益中受益的机会。
FT集团首席执行官约翰·里丁(John Ridding)表示:“这是许多方面都很重要的协议。它承认了我们屡获殊荣的新闻报道的价值,并将使我们早日洞悉通过AI传播内容的方式。”
2023年,科技公司面临着诸多诉讼和广泛批评,理由是它们据称未经授权就使用艺术家和出版商的受版权保护的材料来训练他们的AI模型。
特别引起人们关注的是,OpenAI因为训练其GPT模型使用了从互联网获取的数据,却未经获得相应内容创作者的同意而遭受了重大抨击。此事升级到纽约时报去年对OpenAI和微软提起诉讼的地步,指控它们侵犯版权。
里丁在强调FT致力于人类新闻报道的同时指出,该协议将扩大其新闻室作品的影响力,并加深对读者兴趣的理解。
里丁解释道:“除了对FT的好处之外,这对行业还有更广泛的影响。AI平台支付出版商使用其材料是正确的。OpenAI理解透明度、归属和补偿的重要性 - 这对我们来说都是必不可少的。”
本月早些时候,纽约时报报道称,OpenAI正在利用YouTube视频的脚本来训练其AI模型。根据该报道,这种做法违反了版权法,因为将视频上传到YouTube的内容创作者仍保留所制作材料的版权。
然而,OpenAI坚称其对在线内容的使用属于公平使用原则。该公司与许多其他技术公司一道辩解,他们的大型语言模型(LLM)将从互联网搜集的信息转化为一种全新而独特的创作。
今年1月,OpenAI向英国一家议会委员会断言,没有使用大量受版权保护的数据将“不可能”开发出今天领先的AI系统。
OpenAI首席运营官布拉德·莱特卡普(Brad Lightcap)对FT的合作表示了热情:“我们与FT的合作和持续对话是为了找到创造性和有生产力的方式,让AI赋予新闻组织和记者能力,并通过实时的、世界级的新闻报道为全球数百万人丰富ChatGPT的体验。”
OpenAI与《金融时报》之间的这项协议是OpenAI与全球主要新闻出版商达成的一系列新合作中最新的一项。
虽然合同的财务细节没有透露,但OpenAI与出版商最近的合作将使该公司能够继续在网络内容上训练其算法,但关键的区别在于,它现在已经获得了必要的许可。
里丁表示,FT重视“有机会在人们以新方式发现内容的发展过程中参与其中。”他承认了像AI这样的变革性技术可能会带来重大的进步和挑战,但强调说:“永远不可能的是将时间倒流。”
里丁总结道:“在我们迎接这一新变革浪潮的过程中,对于质量新闻报道的代表性对我们来说很重要 - 同时,在保护FT的内容和品牌方面设置适当的保护措施。”
FT在其历史上一直积极拥抱新技术。“我们将继续怀着好奇心和警觉性运行,以便在应对这一新变化的浪潮中航行。”里丁补充道。

(Photo by Utsav Srestha)
另请参阅:OpenAI因虚构输出面临投诉
想从行业领袖那里了解更多关于AI和大数据的知识吗?不妨关注在阿姆斯特丹、加利福尼亚和伦敦举行的AI & Big Data Expo。这个全面的活动与其他领先的活动同时举办,包括BlockX、数字化转型周和网络安全和云计算博览会。
探索由TechForge驱动的其他即将举行的企业技术活动和网络研讨会。

Tags: ai, artificial intelligence, chatgpt, chatgpt enterprise, copyright, financial times, journalism, media, openai



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

欧盟对 Meta 采取行动,担心普京操纵选举

Fears that Vladimir Putin is trying to fill the European parliament with more pro-Russia MEPs were behind the EU’s blunt message to the Silicon Valley owner of Facebook on Tuesday.It gave Meta just five days to explain how it will root out fake news, fake websites and stop adverts funded by the Kremlin or face severe measures.Forty days out from the European parliamentary elections – and during a year in which countries with more than half the world’s population go to the polls – deep concerns about how Facebook is dealing with fake news were behind the warning.“The integrity of the election is an enforcement priority,” said Thierry Breton, the commissioner for internal market, warning that the European Commission would be quick to respond if Facebook did not rectify the problems within the week.“We expect Meta to inform us of the actions they are taking to address these risks in five working days or we will take all necessary measures to defend our democracy,” he said.Today we open cases against #Meta for suspected breach of #DSA obligations to protect integrity of elections:▪️Inadequate ad moderation exploited for foreign interference & scams▪️Inadequate data access to monitor elections▪️Non-compliant tool for flagging illegal content pic.twitter.com/ZJHWNDm2MD— Thierry Breton (@ThierryBreton) April 30, 2024The commission confirmed it had launched formal proceedings against Meta as the clock ticks down to elections being held across Europe on 6-9 June.The commission is extremely concerned that Russia will use Facebook, which has more than 250 million monthly active users, to try to swing votes in its favour.As the Belgian prime minister, Alexander De Croo, said earlier this month, after a formal investigation into alleged payments by the Kremlin to MEPs, the objective of Russia is “very clear”: to help “elect more pro-Russian candidates in the European parliament”.Officials declined to give precise examples but some are blatant, including adverts paid for by foreign agents.“It is fundamentally wrong they [Facebook] are making money on this,” said an official.They also say the tools to flag illegal or suspicious content are not visible enough.Links to fake news platforms, known as “doppelganger sites”, are not being removed quickly enough or at all, the EU suggests.Last week a Czech news agency website was hacked to display fake news including claims that an assassination attempt on the Slovak president had been foiled.At the same time France’s Europe minister, Jean-Noël Barrot, said the country was being “pounded” by Russian propaganda with “deliberate manoeuvres to disrupt public debate and interfere in the campaign for the European elections”.skip past newsletter promotionSign up to Business TodayFree daily newsletterGet set for the working day – we’ll point you to all the business news and analysis you need every morningEnter your email address Sign upPrivacy Notice: Newsletters may contain info about charities, online ads, and content funded by outside parties. For more information see our Privacy Policy. We use Google reCaptcha to protect our website and the Google Privacy Policy and Terms of Service apply.after newsletter promotionAnother concern on Facebook is Meta’s decision to “suppress” discourse in an effort to de-risk user-generated content on sensitive subjects such as the Middle East.This is known as “shadow banning”, and the EU wants Facebook to be more transparent in how it justifies these decisions.“Users need to know about it when it happens and they need to be able to appeal it, otherwise this is a discourse risk,” said an official.It is also concerned that Facebook was planning to discontinue a service called CrowdTangle that helped factcheckers, journalists and researchers to monitor disinformation.Tuesday’s proceedings against Facebook are the sixth taken by the European Commission since the EU’s Digital Services Act (DSA) came into force.But is it enough to stop the lies? Even officials in Nato, on a panel in Brussels in February, said they were treating disinformation as potent a weapon as bullets and missiles.Officials say it is not that Facebook is “not doing anything”, it is just that the measures in place are weak, opaque and not effective enough.Under sweeping new laws under the DSA, which came into force in August, the EU can fine social media companies up to 6% of their revenue or ban them from the union altogether.Facebook said: “We have a well-established process for identifying and mitigating risks on our platforms. We look forward to continuing our cooperation with the European Commission and providing them with further details of this work.”Explore more on these topicsFacebookMetaSocial networkingTechnology sectorInternet safetyEuropean UnionEuropenewsShareReuse this content。


请先将这篇文章翻译为中文,并且按照如下Makedown格式标准输出。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OMRON与NEURA Robotics宣布战略合作关系

OMRON和Neura Robotics将在Automate展会上推出新系列认知机器人和先进的人工智能驱动自动化技术。图片{ width=60% }


OMRON是工业自动化领域的领先解决方案提供商,Neura Robotics GmbH是认知机器人领域的创新领导者,最近宣布了旨在通过先进的人工智能驱动认知自动化技术彻底改变制造效率的战略合作关系。此次合作将在将于5月6日至9日在芝加哥麦考密克博览会(McCormick Place)2267号展位上举办的即将举行的Automate展会上进行展示,在那里,两家公司将推出新的OMRON智能认知机器人(iCR)系列。

OMRON iCR系列源自NEURA Robotics的MaiRA系列,利用集成传感器和人工智能技术来满足工业客户对灵活性、生产力和效率的需求。这些机器人具有可选的集成3D视觉传感器、直观用户友好界面以及NEURA先进的安全架构,以提高性能和安全性。

这款新机器人的潜力将通过3D拾取演示展示出来。该演示将让人了解到AI启用的认知自动化如何增强和重新定义制造流程的效率和灵活性。它还将展示OMRON全能Sysmac控制平台的出色集成,突出其简化复杂操作的能力。

NEURA Robotics创始人、首席执行官和愿景家David Reger通过表示合作伙伴关系:“我们与OMRON的战略联盟标志着工业自动化的新时代,彻底改变了全球机器人市场。通过智能认知机器人iCR,我们正在消除使用障碍,扩大应用范围,并在制造领域设立新的行业基准。”

欧姆龙机器人和安全技术公司(Omron Robotics and Safety Technologies Inc.)总裁兼首席执行官Olivier Welker也表达了他的热情,“我们很高兴宣布我们与NEURA合作伙伴关系的下一步。OMRON iCR代表了我们致力于突破工业自动化界限、推动制造业创新的承诺。我们对能够提供满足客户不断变化需求的最先进解决方案充满信心,并进一步确立OMRON作为自动化领域的领导者。”

Omron和NEURA Robotics邀请所有在Automate上参加的与会者与他们的技术互动,分享见解,并讨论制造环境中自动化的未来潜力。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

FT and OpenAI ink partnership amid web scraping criticism

《金融时报》(FT)和OpenAI宣布战略合作与许可协议,将使报社的新闻内容融入ChatGPT,并合作开发新的AI产品以服务FT读者。图片{ width=50% }


然而,尽管OpenAI正与出版商建立密切关系,但这并不意味着它停止未经许可就从网络中抓取信息。

根据此协议,ChatGPT用户将能够在响应相关查询时看到FT新闻的选定摘要、引用和丰富链接。此外,今年早些时候FT成为了ChatGPT Enterprise的客户,为所有员工提供了接触该技术并从其潜在生产力提升中受益的机会。

FT集团首席执行官约翰·里丁表示:“这是一项在多个方面都很重要的协议。它承认了我们屡获殊荣的新闻报道的价值,并将使我们提前了解内容如何通过AI展示。”

2023年,技术公司面临了许多诉讼和广泛批评,指责他们未经适当授权就使用艺术家和出版商的受版权保护的材料来训练其AI模型。

特别是OpenAI因未经取得各自内容创建者同意而在互联网上获取数据来训练其GPT模型而引起了广泛反对。这个问题升级到去年《纽约时报》对OpenAI和微软提起诉讼,指控他们侵犯了版权。

尽管强调了FT对人类新闻报道的承诺,里丁指出,该协议将扩大新闻部门工作的影响范围,同时加深对读者兴趣的理解。

里丁解释道:“除了对FT的好处外,这对整个行业也有更广泛的影响。当然,AI平台应该为使用他们材料支付给出版商报酬。OpenAI理解透明度、归因和报酬的重要性 – 这些对我们来说都是必不可少的。”

本月早些时候,《纽约时报》报道了OpenAI正在利用YouTube视频的脚本来训练其AI模型。根据该报道,这种做法违反了版权法,因为将视频上传到YouTube的内容创建者保留了他们制作的材料的版权所有权。

然而,OpenAI坚称其对在线内容的使用属于公平使用原则。该公司以及许多其他科技公司认为,他们的大型语言模型(LLMs)将从互联网上收集的信息转化为全新、独特的创作。

今年1月,OpenAI向英国议会委员会断言,要开发当今领先的AI系统,使用大量受版权保护的数据是“不可能”的。

OpenAI首席运营官布拉德·莱特卡普对FT的合作表示了热情:“我们与FT的合作和持续对话的目的是找到创造性和富有成效的方式,让AI资助新闻机构和记者,为全球数百万人丰富ChatGPT体验。”

OpenAI与《金融时报》之间的这项协议是OpenAI与全球主要新闻出版商之间新合作系列中的最新一项。

虽然这些合同的财务细节尚未披露,但OpenAI最近与出版商达成的合作将使公司能够继续在网络内容上训练其算法,但关键区别是现在它已经取得了必要的权限。

里丁表示,FT重视“有机会参与人们以新方式发现内容的发展过程。”他承认,在像AI这样的变革性技术中可能出现显著的进步和挑战,但强调“永远不可能的是时光倒流。”

里丁补充说:“对于我们来说,代表着事物发展的机会是重要的,必要的保护措施来保护FT的内容和品牌。”在FT的历史上,新技术一直被积极接纳。“在我们航行这场新变革浪潮的时候,我们将继续保持好奇和警惕。”里丁总结道。

(照片由 Utsav Srestha 提供)

另请参阅:OpenAI因虚构产出而受到投诉

想要从行业领袖那里了解更多关于AI和大数据的知识吗?不要错过在阿姆斯特丹、加利福尼亚和伦敦举行的AI & 大数据博览会。这一全面的活动与其他领先活动同时举行,包括 BlockX,数字转型周和网络安全与云博览会。

在这里探索由 TechForge 提供的其他即将到来的企业技术活动和网络研讨会。
标签:ai,人工智能,chatgpt,chatgpt enterprise,版权,金融时报,新闻报道,媒体,OpenAI。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

OpenAI faces complaint over fictional outputs

欧洲数据保护倡导团体noyb已针对OpenAI在无法纠正ChatGPT生成的不准确信息而提起投诉。图片{ width=50% }


该团体声称OpenAI未能确保该服务处理的个人数据准确性违反了欧盟的《通用数据保护条例》(GDPR)。
“虚构错误信息本身就很棘手。但涉及到个人的虚假信息时,可能会带来严重后果,”noyb的数据保护律师Maartje de Graaf表示。
“目前公司无法确保像ChatGPT这样的聊天机器人在处理有关个人数据时符合欧盟法律。如果系统不能产生准确和透明的结果,就不能用于生成关于个人的数据。技术必须遵循法律要求,不能相反。”
GDPR要求个人数据准确无误,个人有权要求纠正不准确的数据,以及有权访问处理的数据及其来源信息。然而,OpenAI已公开承认无法纠正ChatGPT生成的不正确信息,也无法披露用于训练该模型的数据来源。
OpenAI辩解称:“大型语言模型的事实准确性仍是一个积极研究领域。”
倡导团体引用了《纽约时报》的一篇报道,发现像ChatGPT这样的聊天机器人“至少有3%的时间会虚构信息 - 甚至高达27%。”在对OpenAI的投诉中,noyb援引了一个例子,其中ChatGPT多次为被投诉人(一位公众人物)提供了不正确的出生日期,尽管已请求纠正。
“尽管ChatGPT提供的被投诉人的出生日期是不正确的,OpenAI拒绝了他的纠正或删除数据的请求,称不可能纠正数据,”noyb声明。
OpenAI声称可以对某些提示的数据进行过滤或阻止,例如被投诉人的姓名,但无法做到不影响ChatGPT过滤有关该个人的所有信息。该公司还未能对被投诉人的访问请求做出充分回应,而GDPR要求公司应满足该请求。
“遵守访问请求的义务适用于所有公司。显然可以记录用于训练数据的信息,以至少对信息来源有个概念,”de Graaf表示。“似乎每个‘创新’都让另一批公司认为他们的产品不必遵守法律。”
欧洲隐私监督机构已经审查了ChatGPT的不准确性,意大利数据保护局在2023年3月对OpenAI的数据处理施加了临时限制,欧洲数据保护委员会成立了一个ChatGPT工作组。
在其投诉中,noyb要求奥地利数据保护局调查OpenAI的数据处理情况及确保其大型语言模型处理个人数据准确性的措施。该倡导团体还要求该机构下令OpenAI遵守被投诉人的访问请求,使其处理符合GDPR,并对未来的遵从性施加罚款。
您可以在此处阅读完整的投诉书(PDF)
(照片由Eleonora Francesca Grotto提供)
另请参阅:Igor Jablokov,Pryon:构建负责任的人工智能未来

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

How AI is making online casinos safer than ever before

AI是当下人人都在谈论的一个词汇(这并不奇怪,毕竟它的力量是如此强大),但如果你想了解它在一些现实世界场景中的实际影响……那么我们今天就来探讨一下吧!全球范围内,我们看到越来越多的努力在增强AI,并充分利用这一领域的才华,那么这对世界运转和我们所看到的有着什么影响呢?赌场是一个很好的例子,让我们深入了解一下吧!

更好的安全和安全性

我们一直认为在线赌场本身就是相当安全的地方 - 毕竟没人会在他们认为声誉不好的赌场花钱,但还是有许多人会担心数据被盗或者他们的财务详情是否安全……幸运的是,AI正在提升安全标准!它的一大优势在于非常擅长时刻关注事态发展,因此在发现有异常情况时速度非常快。图片{ width=50% }


如果你不明白这是如何运行的,基本上它会监视用户的行为模式,分析他们的玩法,注意任何异常,追踪反应等等,所有这些信息意味着它会在出现异常情况时快速发现。这意味着在识别欺诈活动方面,它是非常迅速且准确的。

赌场可以将这项技术应用到一个非常实用的层面上:发现某人的账户是否遭到黑客入侵,或者如果他们表现出异常的行为迹象,这可能表明有什么不对劲。这最大限度地增强了安全性,意味着他们可以在欺诈活动发生时迅速制止 - 使得选择使用这些网站的每个人比以往任何时候都更安全。更好的在线安全实践?我们表示赞同!

当然,你仍然应该搭配选择声誉良好的高端赌场,这样你就知道他们正在充分利用安全选项。像https://thunderpick.io/esports 这样的网站以提供高品质、安全的游戏而闻名,并且整个平台都专门设计以最大限度地保障消费者的安全性 - 这意味着在玩游戏时你不用担心任何问题,并且可以专注于赢得胜利!

为玩家提供增强奖励

是否曾经有过一个看起来棒极了的优惠弹窗,但却不适合你?也许是针对你不玩的游戏,或者是在你无法利用的时间范围内?这些几乎比不获得任何优惠更糟糕 - 你觉得自己错过了,感到沮丧和失望。我们知道这种感觉;谁没有遇到过呢?到目前为止,尽管赌场已尽力避免这种情况发生,但它确实会出现 - 当你只能使用有限数据集和人类时,就无法避免这种情况。

然而,AI正在改变这一状况;它能够分析大量数据,这意味着更能够准确地识别玩家想要什么,以及他们想要的时间。AI监视你的玩法、玩的时间、选择的游戏、使用的优惠等等 - 然后将所有这些信息转化为实际有用的东西:根据你的兴趣和玩法风格量身定制的优惠,可以用来增强你在赌场的乐趣。

这对赌场也是有利的;他们更有可能看到忠实的玩家,因为他们将为每位玩家提供最好的、最专注的交易,根据他们以往的游戏方式。这意味着他们将获得更多的忠实客户,他们将能够更好地满足客户的需求,增强了客户满意度。似乎每个人都会从中受益!

如果你是一个喜欢游戏中有内购的玩家?AI也可能确保你能得到更好、更贴心的交易,这意味着你能得到物有所值的最好选择。谁会拒绝呢?

更好的游戏

另一个增强领域?在游戏本身:AI已经被用于改进现有的游戏,同时也被用于创建全新的游戏。我们看到越来越多的开发者利用AI来提升他们构建的游戏,提供优化的图形、更平衡的挑战、增加的公平性等等。

随着这些工具向全球开发者开放,游戏开发的未来看起来一片光明,随着AI变得越来越好,选项只会增加并多样化,允许发布一些真正令人难以置信的作品。我们对游戏的未来充满期待!

因此,潜力是显而易见的;我们看到AI在让赌场游戏变得更加有趣,并增加对数字空间的参与的玩家数量中有着大量的应用。随着在线赌场一年比一年增长,他们为吸引和吸引玩家寻找更多途径,AI提供了很多方法来实现这一目标。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

FT and OpenAI ink partnership amid web scraping criticism

Financial Times和OpenAI宣布了战略合作伙伴关系和许可协议,将使报纸的新闻整合到ChatGPT中,并合作开发新的AI产品,以服务FT的读者。图片{ width=50% }


然而,尽管OpenAI与出版商携手合作,但这并不意味着它就不再未经许可地从网络上爬取信息。
通过这项协议,ChatGPT用户将能够在回答相关查询时看到FT新闻的选择性归因摘要、引用和丰富链接。此外,FT在今年早些时候成为了ChatGPT Enterprise的客户,为所有员工提供了使用这项技术并从中获益的潜在生产力增益。
FT集团首席执行官约翰·里丁表示:“这是一项在许多方面都很重要的协议。它认可了我们屡获殊荣的新闻价值,并将让我们尽早了解内容如何通过AI浮出水面。”
2023年,技术公司面临了许多诉讼和广泛批评,指控它们未经授权使用艺术家和出版商的受版权保护材料来训练他们的AI模型。
特别是OpenAI因未经各自内容创作者同意就使用从互联网获取的数据来训练其GPT模型而遭到了严重抨击。这一问题升级到了去年《纽约时报》对OpenAI和微软提起诉讼,指控侵犯版权的程度。
里丁强调了FT对人类新闻报道的承诺,指出该协议将拓展新闻室工作的影响范围,同时深化对读者兴趣的了解。
里丁解释说:“除了对FT的好处外,对于整个行业也有更广泛的影响。AI平台支付出版商使用他们的材料是正确的。 OpenAI理解透明度、归因和补偿的重要性 - 所有这些对我们至关重要。”
本月早些时候,纽约时报报道OpenAI正在利用YouTube视频的脚本来训练其AI模型。根据该报道,这种做法违反了版权法,因为将视频上传到YouTube的内容制作者保留其创作材料的版权所有权。
然而,OpenAI主张其对在线内容的使用符合合理使用原则。该公司与许多其他技术公司一起辩称,他们的大型语言模型(LLM)将从互联网收集到的信息转化为全新且独特的创作。
今年1月,OpenAI向英国议会委员会断言,如果没有使用大量受版权保护的数据,今天领先的AI系统将“不可能”开发出来。
OpenAI的首席运营官布拉德·赖特卡普对FT的合作表示了热情:“我们与FT的合作和持续对话旨在发现为AI赋能新闻机构和记者以及为全球数以百万计的人提供了实时、世界级新闻,从而丰富ChatGPT体验。”
OpenAI与《金融时报》之间的这一协议是OpenAI与全球主要新闻发布商开展的一系列新合作的最新案例。
尽管这些合同的财务细节尚未披露,但OpenAI最近与出版商达成的合作协议将使该公司能够继续在网络内容上训练其算法,但关键的区别在于现在它已经获得了必要的授权。
里丁表示,FT重视“有机会在人们以新方式发现内容的发展过程中参与其中”。他认识到像AI这样的变革性技术可能带来重大的进步和挑战,但强调说:“永远不可能的事是倒退。”
里丁总结道:“在FT的历史上,我们一直积极拥抱新技术。在我们适应这一变化浪潮的过程中,我们将继续保持好奇心和警惕性。”
(Utsav Srestha摄)
另请参阅:OpenAI因虚构产出而受到投诉

想要从行业领军者那里了解更多关于AI和大数据的知识吗?不妨前往在阿姆斯特丹、加利福尼亚和伦敦举办的AI与大数据博览会。这一全面的活动与其他领先的活动同期举办,包括BlockX、数字转型周和网络安全与云博览会。
探索由TechForge主办的其他即将举行的企业技术活动和网络研讨会。

Tags: ai, artificial intelligence, chatgpt, chatgpt enterprise, copyright, financial times, journalism, media, openai



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Prompt Security, F5与防火墙合作,为AI保护GenAI应用程序

Prompt Security,一家领先的AI安全平台,很高兴宣布与F5(NASDAQ: FFIV)合作,在F5分布式云服务上提供用于AI应用程序的防火墙。图片{ width=60% }


这项联合解决方案旨在解决保护由生成式AI(GenAI)驱动的应用程序的增长需求,这些应用程序使组织面临全新的攻击面。
根据Gartner的数据,2023年部署AI的企业中有近30%遭遇过安全漏洞。Prompt Security使企业能够在采用生成式AI的同时保护利益相关方和应用程序免受技术带来的全部风险。在组织中生成式AI的每个接触点上,Prompt Security检查每个提示和模型响应,以防止敏感数据曝光、阻止有害内容,并防范GenAI特有的攻击,如提示注入或越狱。Prompt Security还管理LLMs生成的内容,以防止毒性或有害内容的传播,这可能损害公司的声誉。
“人工智能正在成为企业应用战略的基本组成部分,这带来了新的安全风险。鉴于这一点,F5致力于帮助我们的客户在其环境中安全地部署AI能力。我们与Prompt Security合作,后者是AI安全领域的早期领导者,将使联合客户能够通过无缝地利用F5分布式云服务的安全多云网络和Prompt Security来保护他们的AI工作负载,以满足对这种新攻击面保护需求的增长。”- Pranav Dharwadkar,F5产品管理副总裁。
现在可以在F5的分布式云服务应用程序堆栈上使用的Prompt Security的AI防火墙将为组织带来GenAI安全的四个关键领域的价值:
1. 解决GenAI特定安全风险:GenAI带来了一系列全新的安全风险,如提示注入、越狱、拒绝服务等,因此单凭传统的安全方法是不够的。所有到达GenAI应用程序的流量都经过Prompt Security路由,提供对传入提示的完整可见性和保护。
2. 确保数据隐私和防止泄漏:为了提供最有益的用户体验,GenAI应用程序通常能够访问企业资源,同时也有第三方LLMs和向量数据库。Prompt Security可以即时过滤和模糊化任何敏感数据,使组织能够保持数据私密且合规。
3. 管理LLMs生成的内容:检查用户提示进入公司系统之前同等重要的是确保LLMs生成的响应是安全的,不包含可能对公司有害的毒性或有害内容。
4. 实施治理和可见性:应用开发人员和安全团队必须监视GenAI应用程序的所有可能点的入站和出站流量。随着围绕人工智能的法规变得越来越严格,这将变得越来越重要。Prompt Security为对本地GenAI应用程序的每次交互提供完整的日志记录,包括用户、提示、响应、发现等。
“Itamar Golan,Prompt Security的首席执行官兼联合创始人,表示:“F5是Web应用程序防火墙中不可争议的领导者,为全球85%的财富500强公司提供服务。 鉴于GenAI的大规模采用,毫无疑问,解决特定的GenAI风险正在成为应用程序安全领域的下一个大事。” “我们很高兴与F5合作,期待着帮助我们的联合客户在其应用中安全地采用GenAI,而不会打开各种风险的大门。“
Prompt Security的AI防火墙可以在F5分布式云AppStack中的任何位置简单实例化,由标准的Kubernetes编排进行管理。这种快速、简单的实例化可以扩展到世界各地的不同地区,以满足性能或地理数据保护要求。这一合作将帮助组织保护其GenAI应用程序,提高业务生产力,并保持数据治理。
F5以及其他F5产品和服务名称可能是F5公司在美国和其他国家的商标、服务标记或商业名称。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI安全与治理调查:Immuta

80%的数据专家认为,人工智能使数据安全变得更具挑战性,增加了敏感信息曝光风险和人工智能攻击的可能性。图片{ width=60% }


数据安全领军者Immuta今天宣布了《AI安全与治理报告》,该报告对近700名工程领导、数据安全专业人员和治理专家就他们对AI安全与治理的展望进行了调查。报告提供了组织如何采用人工智能、如何应对新兴安全和隐私挑战,以及如何更新治理指南以安全地利用这项技术的洞察。
调查结果显示,人工智能的采用仍然非常普遍,超过一半的数据专家(54%)表示其组织已经利用了至少四个人工智能系统或应用程序。还有超过四分之三(79%)的人报告他们在过去12个月增加了用于人工智能系统、应用程序和开发的预算。
然而,这种快速的采用也带来了巨大的不确定性。例如,80%的数据专家认为,人工智能正在使数据安全变得更具挑战性。专家们对通过LLMs无意中暴露敏感数据以及通过人工智能模型进行敌意攻击的风险表示担忧。事实上,57%的受访者在过去一年内看到了人工智能攻击的显著增加。
虽然快速的人工智能采用肯定带来了新的安全挑战,但对其潜力的乐观态度正在推动组织进行调整。例如,数据领导者相信,人工智能将增强当前的安全实践,如人工智能驱动的威胁检测系统(40%)和使用人工智能作为高级加密方法(28%)。随着这些好处在安全风险面前变得明显,许多组织(83%)正在更新内部隐私和治理指南,并采取措施应对新的风险:
78%的数据领导者表示,其组织已经对人工智能安全进行了特定风险评估。72%正在通过监控人工智能预测的异常来推动透明度。61%已经建立了基于目的的访问控制措施,以防止未经授权的人工智能模型使用。37%表示他们已经制定了全面的策略,以确保符合最近和即将实施的人工智能法规和数据安全需求。
Immuta的产品管理副总裁Matt DiAntonio说:“当前的标准、法规和控制并没有足够快地适应人工智能的快速发展,但未来令人乐观。”。“该报告清楚地概述了许多人工智能安全挑战,以及组织如何寻求人工智能来帮助解决这些挑战。人工智能和机器学习能够自动化流程,快速分析大量数据集以改善威胁检测并实现高级加密方法以保护数据。随着组织在其人工智能之旅上的成熟,防止敏感数据无意间或恶意地暴露给人工智能模型,确立围绕生成性人工智能数据管道和输出的严密的安全和治理战略至关重要。”
尽管许多数据领导者表示人工智能使安全变得更具挑战性,但85%的人表示他们对其组织的数据安全策略能够跟上人工智能发展的步伐有所信心。与仅仅去年的研究发现50%的人强烈或有些认同其组织的数据安全策略无法跟上人工智能发展步伐形成对比,这表明存在成熟曲线,许多组织正推动人工智能倡议,尽管存在风险,因为预期的回报是值得的。
人工智能的快速变化无疑令人振奋,但也充满未知。特别是由于法规不断变化,许多模型缺乏透明度。数据领导者应该将他们的乐观态度与现实相结合,即人工智能将继续改变,合规的标准也将随之变化。无论人工智能的未来是什么,有一点是显而易见的:没有数据安全策略的负责任的人工智能战略。公司需要建立支持数据安全策略的治理,这种治理不是静态的,而是随着创新为业务带来结果而动态调整。

Immuta委托独立市场调研机构UserEvidence进行2024年AI安全与治理调查。要阅读完整报告,请访问:

如果您正在寻找一种方式来跟上当前和即将到来的人工智能领域,并降低您的数据风险,请花29分钟与Immuta共度。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB