军事快报-"打扑克不盖被子的视频"-我们正在大模型产品面前打扑克不盖被子的视频“裸奔”么_ZAKER新闻

打扑克不盖被子的视频我们正在大模型产品面前打扑克不盖被子的视频“裸奔”么_ZAKER新闻

打扑克不盖被子的视频我们正在大模型产品面前打扑克不盖被子的视频“裸奔”么_ZAKER新闻

我们正在大模型产品面前打扑克不盖被子的视频“裸奔”么_ZAKER新闻

以训练模型之名,收集数据,但预训练的时代都结束了啊。每天,全球有数亿人在向 AI 产品倾诉他们的想法、困惑、创意,甚至秘密。但鲜有人意识到,这些对话正在以 " 帮助训练下一代 AI 模型的 " 的名义,突破着过往移动互联网产品的数据使用界限。ChatGPT 引发了这一轮的 AI 革命,也让这种聊天对话的产品形态成了大模型产品们最流行的样貌。而这种对话形态,在很多时候让用户 " 以为 " 自己在使用像微信这样的社交产品,进而忽视了在数据使用上,它们与这些我们习惯了的产品大有不同,甚至完全相反。事实上,几乎所有主流 AI 产品都在用户协议中明确写道,用户的输入将被用于模型训练,也就是,你的 " 聊天记录 " 不是只属于你的,而是被平台收集的。这种 " 数据采集 " 方式若放在移动互联网的任一款产品上,都可以被认为是用户在产品面前 " 裸奔 ",很多时候是不被允许的,但大模型的狂奔中,它却被人们忽视了。在当前 AI 技术快速发展的背景下,用户数据的收集与使用已经远远超出了传统互联网产品的范畴。你与 AI 助手的对话、上传的图片、甚至删除的内容,都可能被用来训练下一代的 AI 模型,而且一旦数据被用于训练,即便用户后悔也很难 " 撤回 " ——这些数据将永久地影响模型的行为。围绕近年来发生的典型案例,我们能更清晰地看到用户数据与 AI 产品之间的敏感关系。早在 2023 年 4 月,OpenAI 的 ChatGPT 因隐私泄露问题在意大利被暂时封禁。调查发现,一些用户的个人信息和聊天记录因开源库漏洞被错误展示。2024 年 9 月,爱尔兰数据保护委员会(DPC)对 X 公司提起诉讼,指控其在未经用户同意的情况下,自动收集了用户的帖子、互动、输入和结果,用于训练生成式 AI 聊天机器人 Grok 的用户数据,以提高其作为搜索和聊天人工智能的性能。最终,X 公司同意永久停止处理欧盟用户的个人数据。2024 年 11 月 27 日,路透 * 社的一则报道揭示了用户对微软 " 连接体验 " 功能的担忧。部分用户在社交媒体上指出,微软要求用户选择退出该功能,并认为该功能被用于训练 AI 模型。尤其是对于企业用户来说,Microsoft 365 中可能包含着重要的商业计划、财务报表、客户数据、产品设计等机密信息。如果这些数据被用于训练 AI 模型,可能会导致商业机密泄露,对企业造成潜在的损失。尽管微软迅速否认了这一说法,强调其不会使用 Microsoft 365 消费者和商业应用程序的客户数据来训练基础大型语言模型,但社交媒体上的讨论依然显示出公众对于未经允许数据被用于 AI 模型训练的普遍担忧。类似的,国内的 WPS AI 也出现过 " 用户文档被用于 AI 训练 " 的质疑。那些你已同意但并没有阅读的隐私条款我们能更清晰地看到用户数据与 AI 产品之间的敏感关系。企业并不被要求披露他们用于训练模型的数据来源,但根据一系列隐私法律的规定,他们需要说明如何使用客户提供的数据。对比国内外主流 AI 产品的隐私条款,可以发现各家公司在用户数据使用上的策略存在显著差异。KimiKimi 的《用户隐私协议》中指出,他们会收集用户在产品交互过程中输入的文本数据信息,以及用户选择使用浏览器助手等功能时提供的网页内容和上下文信息。收集到的信息将用于提供相关服务。在经过安全加密、严格去标识化且无法重新识别特定个人的前提下,Kimi 可能会将这些信息用于提升和迭代其产品和服务。豆包豆包的隐私政策中提到,为了优化和改进服务体验,他们可能会结合用户对输出内容的反馈以及使用过程中遇到的问题来改进服务。在经过安全加密技术处理、严格去标识化且无法重新识别特定个人的前提下,豆包可能会将用户向 AI 输入的数据、发出的指令以及 AI 相应生成的回复、用户对产品的访问和使用情况进行分析并用于模型训练。豆包为用户提供了关闭 " 改进语音服务 " 的选项来撤回语音信息用于模型训练的授权,并提供了联系方式供用户撤回其他信息用于模型训练和优化的授权。智谱智谱清言的隐私政策声明中,没有提到使用用户的数据进行训练。但提到了如果对个人信息采取技术措施和其他必要措施进行处理,使得数据接收方无法重新识别特定个人且不能复原,或进行匿名化的研究、统计分析和预测后,此类数据将不属于个人信息范畴,其使用无需另行征得用户同意。GoogleGoogle Gemini 的隐私条款显示,对于免费服务,例如例 Google AI Studio 和 Gemini API 的免费额度,Google 会利用用户提交内容和生成的内容来改进和发展其产品和服务及机器学习技术,人工审核员可能会阅读、标注和处理输入和输出。但会采取措施保护用户隐私,包括在人工审核前将数据与用户账号等信息断开关联。特别强调了请勿向免费服务提交敏感、机密或个人信息。而对于付费服务,例如付费的 Gemini API ,Google 则承诺不会使用用户的提示或响应来改进产品。此外,对于欧盟、瑞士或英国的用户,无论是付费还是免费服务,均不会利用用户提交和生成的内容。Gemini App 用户则可以选择对话是否被存储,并可能用于训练新模型。对于 18 岁及以上的用户,此功能默认开启;而对于 18 岁以下的用户,默认关闭(可选择自行开启)。谷歌旗下的 YouTube 规则略有不同。YouTube 在今年一篇博文中证实,它利用上传到 YouTube 的内容来创建和改进其自身服务,包括用于开发 AI 产品。该公司也表示反对其他公司使用 YouTube 内容来训练 AI 模型。" 多年来,我们一直利用上传到 YouTube 的内容来提升 YouTube 及 Google 上创作者和观众的产品体验,这包括通过机器学习和人工智能应用来实现。" " 这涵盖了支持我们的信任与安全运营、改进推荐系统,以及开发如自动配音等新的生成式 AI 功能。"OpenAI默认情况下,ChatGPT Enterprise、ChatGPT Team 和 ChatGPT Edu 客户的数据不会用于模型训练。对于通过 API 使用 OpenAI 服务的用户也是如此。API 客户可以选择与 OpenAI 共享数据,以改进和训练未来的模型。对于个人用户,无论是付费还是免费用户,OpenAI 允许用户自己选择是否允许使用自己的对话用于模型训练,默认状态是允许的。此外,ChatGPT 中的 " 临时聊天 " 不会用于训练 OpenAI 模型,并在 30 天后自动删除。苹果已经与 OpenAI 达成协议,通过 Apple Intelligence 访问 ChatGPT,在苹果集成的 ChatGPT 的版本中,未登录账户的对话仅由 OpenAI 处理以提供安全响应,OpenAI 不会接收用户的 IP 地址,存储内容,或将其用于训练 AI 模型。对于关联了 ChatGPT 账号的用户,将适用 OpenAI 的标准隐私政策。MetaMeta 表示,它可以使用任何公开分享到 Facebook 和 Instagram 的数据来训练其 AI 系统。Meta 还表示,与 AI 功能的互动可用于训练 AI 模型。例如,发送给 AI 聊天的消息、提出的问题以及要求 Meta AI 创建图像。这也包括使用 Meta Ray-Ban 智能眼镜拍摄的照片,这些照片被用于 AI 查询。值得注意的是,Meta 也不允许客户选择退出其数据用于训练,除了巴西和欧洲的用户。但有一点:Meta 允许用户删除与 Meta AI 聊天机器人的对话数据。Meta 表示,用户删除的 Meta AI 对话或删除的 Facebook 和 Instagram 的公开内容,都不会用于未来的训练。Anthropic默认情况下,不会使用用户信息来训练模型,Anthropic 保留了在某些情况下,使用提示和输出来训练其模型的权利。例如,在获得许可的前提下,当有用户点击 " 赞 " 或 " 踩 " 时。此外,如同行业惯例,Anthropic 会自动扫描用户的聊天内容来执行安全策略。但不会将这些数据用于训练其模型。从以上对比可以看出,不同公司在数据使用上的透明度、用户选择权以及数据保护措施上存在显著差异。部分公司在默认情况下即使用用户数据进行模型训练,而部分公司则提供了相对清晰的选择退出机制。但我们面对的仍然是用户在数据使用上的弱势地位。本质上,用户是否允许平台使用其数据进行模型训练,最终取决于平台的服务条款和隐私政策。无论平台现在是否声明使用用户与 AI 的聊天数据进行训练,它们都只需简单地更改条款,便可随时调整数据使用策略。而令人担忧的是,绝大部分用户根本不会仔细阅读这些冗长且专业的条款。这就引出了一个潜在的风险:" 我们用 / 不用你的数据来训练 AI。这些数据我们不会与任何人分享。(等到我们的服务条款下次更新时再看吧)" 随时可能发生且难以被用户察觉的条款变更,使得用户对于自身数据的掌控显得尤为脆弱。例如,X 平台近期更新了其服务条款,允许使用用户数据来训练 AI 模型,除非用户主动选择退出。另外一些平台,即使用户想拒绝将个人数据用于模型训练,却往往没有明确的功能或工具进行操作,这更凸显了用户在数据隐私方面的被动处境。而这一切与传统互联网产品形成鲜明对比。拿微信的隐私条款来看,其隐私政策详尽地列举了每一项数据收集的具体场景、目的和范围,甚至明确承诺 " 不会收集用户的聊天记录 "。当年被严格管控的数据获取行为,如今在 AI 产品中使用用户数据却成为一种常态。这里的问题在于,一方面,经过多年移动互联网社交产品的 " 驯化 ",用户已习惯性忽视隐私条款,而新兴的 AI 对话产品又酷似社交软件,让人下意识延续了这种疏忽。另一方面,当这些产品打着 " 大模型 " 的旗号出现时,俨然成了模型进步的试验场。用户数据不再被视为需要谨慎对待的隐私,而是模型进步的必需品。于是,用户的个人信息被重新定义为 " 语料 ",这种转换,反而成了数据收集的 " 正当理由 "。收集用户数据真的能提高模型能力么各大 AI 公司都在疯狂 " 圈地 " 用户数据,但一个尴尬的现实可能是:传统互联网产品的数据网络效应,在大模型时代似乎并不成立。这种数据狂热的背后,一个被广泛接受的理由是:用户越多,数据越多,模型越强大,从而吸引更多用户,形成正向循环。然而,这个看似合理的逻辑,真的适用于当前的 AI 大模型吗?像 GPT-4 或 Stable Diffusion 这样的基础模型,真的能从持续的用户数据输入中获得持续的性能提升吗?首先,大模型训练的根基是公开数据,而非专有数据。ChatGPT 背后的数据,更多来自维基百科这样的开放资源,而非用户的独家内容。其次,用户与模型之间缺乏直接的反馈闭环,你的每一次对话可能被收集,但并不会立即改善模型表现。比如,尽管 ChatGPT 已拥有超 3 亿周活用户,OpenAI 的下一代模型却迟迟未能问世。这个现象似乎在暗示,依靠用户数据可能并不足以突破大模型训练所面临的 " 数据墙 " 问题。那么,为什么各家 AI 公司仍坚持收集用户数据?这种现象背后有更深层的原因。表面上看,拥有海量用户数据的 AI 公司似乎占据优势。但事实可能并非如此:第一,用户数据的质量参差不齐。日常对话中充斥着大量重复、琐碎甚至错误的信息,这些 " 噪音 " 未必能提升模型质量。反而可能带来额外的数据清洗成本。第二,预训练阶段完成后,模型的能力边界已经基本确立。用户的每一次对话即使被收集,也不会立即改善模型表现。第三,商业模型的壁垒正在转向场景深耕。比如医疗领域的 AI 需要专业医疗数据,而非泛泛的用户聊天记录。通用大模型收集的用户数据,对特定领域的突破帮助有限。所以,用户虽然在使用过程中产生了数据,但他们并未直接创造这些模型所训练的原始数据,这意味着用户与模型之间缺乏直接的反馈回路,难以形成传统意义上的数据网络效应。但用户数据的价值依然存在,只是性质已经改变:它们不再是提升模型能力的关键。而是企业获取商业利益的新工具。通过分析用户对话,企业可以洞察用户行为、发掘变现场景、定制商业功能,甚至和广告商共享信息。这个转变也提醒我们:当 AI 公司声称 " 为了提升模型性能 " 而收集数据时,我们需要更谨慎地思考,在 " 预训练终结 " 越来越成为行业共识的当下,这是推动技术进步的必要条件,还是商业诉求下对用户数据的 " 滥用 "?没有人比 AI 公司更清楚这个问题的答案。结语大模型带来的隐私挑战,远比数据泄露更为复杂。不仅可能泄露数据片段,还能通过参数化学习建立联系、进行推断——无论准确与否,让隐私问题更加难以捉摸。即使采取了数据脱敏措施,也未必能彻底消除风险。例如 " 奶奶漏洞 " 的出现:看似脱敏的数据,在与其他信息源结合后,仍可能通过独特的文体风格等线索,重新识别出用户,让隐私无所遁形。大模型并非直接存储训练数据,而是通过参数化的方式内化了数据的结构和规律。这种方式让模型获得了强大的能力,但也意味着我们无法像删除文件一样,简单地擦除已经融入模型的信息,这也为隐私保护带来了新的难题。更令人担忧的是,一个荒谬的现实正在上演,越来越像移动互联网产品的新一代 AI 产品正在获得比移动互联网时代更大的数据采集和使用权限。回溯社交媒体时代,科技行业构建起庞大的全球网络,通过将用户的帖子与点击转化为利润,实现了个人数据的货币化。今天,那些曾经让各大 APP 梦寐以求的用户数据,在 AI 产品的用户协议中,都变成了 " 理所当然 " 的条款,边界被悄然拓宽了。随着模型技术的进步放缓,各个模型公司面对通过产品实现商业化的压力时,会如何决策,变成了一件几乎可以预料到的事情。看起来现在是时候有更多更直接和更严肃的讨论了。

koa12jJid0DL9adK+CJ1DK2K393LKASDad

编辑:吴国梁

TOP1热点:梦百合杯或禁止卞相壹参赛

此外,各类运动可以搭配起来,既能增加趣味性,又能使身体不同部位得到锻炼,也能降低重复运动后的损伤风险。。

为了更好地让大家感受到朱子文化的深厚底蕴,此次杨浦区台胞子女中华文化研习营特意安排在了朱熹的家乡—福建三明。几天的行程中,台胞子女们踏着一千多年前朱熹的足迹,用心体会着这座温暖、悠久的城市。

TOP2热点:刘晓庆自曝很难生气

稍不留神就容易丢失物品

当前,这里进行了

TOP3热点:31省份人均收入账单出炉中国人も日本人も漢字を

睦邻门的开启让两边居民尝到了自治共治的“甜头”,促进了社群的融合,双方的互动越来越频繁,“睦邻门”解决了同一片街区居民互动往来和资源共享的堵点、痛点,打通了阻隔往来之门,也打通了民意所向的“共治之门”、群众之间的“感情之门”和为民服务的“民心之门”。

今年8月开始,杨浦面向高校毕业生等青年重点群体,开展“八项攻坚行动”,包括多方筹岗、政策护航、专项招聘、乐业社区、暖心帮扶、数字赋能、能力提升、集中宣传等内容,助力青年求职者实现高质量就业。

TOP4热点:充电器在不充电时插在插座上会耗电吗日本最大但的人文体艺术

抗日战争期间,为坚持办学,同济师生被迫开始了艰苦卓绝的万里跋涉,历经数年,先后迁至浙江金华、江西赣州、吉安、广西八步、云南昆明,最后到达四川南溪县的李庄镇,行程一万多公里,人称“同济长征”,谱写了同舟共济、科教报国的壮丽诗篇。

马龙飞介绍,糖尿病患者往往合并有心脑血管、肾病、神经病变、视网膜病变等多种并发症,需要多次挂号,往返于不同科室之间进行诊断和治疗,而MMC诊室启用以后,患者就不用再在科室之间奔波,一站式得到全面的诊断和治疗,同时,医生可以对糖尿病及其他慢病患者进行精准化干预,不仅限于对慢病的危险因素进行干预,还对患者的慢性躯体疼痛,失眠,肢体障碍等其他未分化疾病进行多学科干预。

TOP5热点:让孩子「更懂中国年」打扑克视频全程不盖被子

“这一项目是为了贯彻落实《上海市人民政府关于深入推进爱国卫生运动的实施意见》《上海市国民营养计划(2019-2030年)实施方案》和《健康上海行动(2019-2030年)》中含糖饮料控制的工作要求。”马飞飞进一步表示,应用含糖饮料健康提示系列标识,观察其对消费者含糖饮料相关知识、过多摄入含糖饮料健康危害意识、含糖饮料购买行为和商超销量的中长期影响,可以为后续相关政策制定和干预方式创新提供实践依据,提升居民对含糖饮料过多摄入的健康危害意识,指导居民选择健康饮品,培育市民养成健康的生活方式。

2023年8月15日,抗日战争胜利78周年之际,雪峰山下再现“鸟铳”。

TOP6热点:周鸿祎宣布要送粉丝100辆车吃瓜爆料就看黑料社

当天,海军军医大学附属长海医院耳鼻喉科主治医师、作者陈梦婕和上海市健康促进中心助理研究员束翠华携新书《看不见的怪兽》来到现场,与读者们分享幕后的创作心路。

富尔顿县地方检察官、民主党人法尼•威利斯此前要求,特朗普及其他18名同案被告须在8月25日中午之前在佐治亚州主动投案,否则将发出逮捕令。

TOP7热点:打工人开始流行过极简式春节一面亲上边一面膜下边的免费

“你好!火星”系列设计的初衷与理念源自哪里?郑天慧介绍,火星是人类关注度最高的太空行星,人类对火星的探测历史几乎贯穿整个人类航天史。火星在一定程度上可以说是地球的“未来”,“今年的书展里,就有很多与航空有关的书籍,消费者调研显示,现在的年轻人带着非常强烈的好奇心,愿意探索外部‘大宇宙’和内心‘小宇宙’,对于现在的孩子来说,航天不再是遥远的事,他们的航空课堂就在太空中,因此宇宙的相对距离已经缩短了,所以我们有一个畅想,现在我们所陪伴的这些年轻学生,在未来有希望可以到宇宙上面去看一看,我们希望成为激励者和陪伴者。”

播撒花籽、平整土地、铺设水管

TOP8热点:现在干什么能挣钱打扑克不盖被子的视频

“尤其书籍跳蚤市场、读书手帐创作大赛这两场活动,我们是非常推荐的。”学悦风咏书院院长洪彦龙说,“周边居民们可以走进书店,交换自己的读书经验,分享自己的看书习惯,好好在这场书展中留下独属于自己的印记。”

2、征文请标注所述老师姓名和所在学校(限上海地区各级各类学校)

TOP9热点:在家用电压锅安全吗打扑克不盖被子的视频

8月17日14:00

中国质量新闻网讯2023年8月16日,南京市市场监督管理局发布关于江苏省市场监督管理局通告不合格食品处置情况的公告(2023年第24期),涉及标称南京忠来果品食杂有限公司生产的黑片木耳(分装)(干制食用菌)。

TOP10热点:私家车返乡拼车出事故 保险公司赔不赔一面亲膜上边奶一个膜边

睦邻门的开启让两边居民尝到了自治共治的“甜头”,促进了社群的融合,双方的互动越来越频繁,“睦邻门”解决了同一片街区居民互动往来和资源共享的堵点、痛点,打通了阻隔往来之门,也打通了民意所向的“共治之门”、群众之间的“感情之门”和为民服务的“民心之门”。

(四)坚持问题导向,深入整治违规行为。持续开展APP侵害用户权益专项整治行动。组织第三方检测机构对群众关注的陕西省内生活服务、休闲娱乐、实用工具等移动互联网应用程序(APP)进行检查,对陕西属地65款APP进行重点检测,向27家存在问题的APP运营企业下发责令改正通知单。

发布于:重庆万盛区