# AI及信息技术应用2023年1月23日简报

## 1. 核心定义
> ChatGPT是一种基于人工智能的聊天机器人，能够通过自然语言与用户进行交互，提供信息、解答问题、协助完成任务等。

## 2. 核心洞察 (TL;DR)
- ChatGPT被整合到微软云服务中，用于内容生产协助。
- ChatGPT在摘要生成方面表现出色，甚至能误导医学研究人员。
- Google推出新的文本到图像转换器模型Muse，效率超过DALL·E 2和Imagen。

## 3. 关键事实与数据
- ChatGPT的摘要生成能力在医学研究中被误认为是真实摘要。
- 微软Azure OpenAI服务正在被CarMax、毕马威等公司使用。
- Muse模型在生成512x512分辨率图像时，生成时间仅需1.3秒。

## 4. 深度分析正文



AI及信息技术应用2023年1月23日简报
=====================

与此前对ChatGPT的谈论的拍案惊奇不同的是，这两周对ChatGPT的谈论都开始偏重于，用它来干啥，怎么干。除了能做信息整理重述，在事实性、核心概念逻辑与具体场景问题信息结合上来模型本身还有很大的空间，另外一个角度就是，模型训练和对反社会的一些基础能力的控制，技术除了有力量，还得是一个可控制自己力量的存在。

肯尼亚作为ChatGPT的训练语料的标注落脚点，还是挺出乎意外的，另外Google在内容生成的控制上的水平，也确实让人大跌眼镜，让人不禁联想起来，Google技术道德团队那位女工程师离职前后的种种沸沸扬扬的故事。ChatGPT带给大家的想象和期待，除了他本身罕见的优秀能力和体验反馈，更多的还是大家对目前的Google等搜索引擎的失望，困顿和无奈，期待对垃圾内容、SEO、虚假信息的技术升级成为体验的一部分，而不仅仅是合规。  

这次我看到了ChatGPT在做在摘要上的优秀表现，用几个例子对比阅粒知识计算引擎效果，惊喜连连。  

祝大家兔年大吉，新春快乐！  

**01＃AI应用**

微软又出大招，ChatGPT将加入云服务  
**\[摘要\]**1 月 16 日，微软在一篇最新的博客中表示，除了相关的基础技术之外，ChatGPT 本身很快将通过微软的云服务提供，微软表示，它正在审查客户的应用程序以减少对软件的潜在滥用，并且其过滤器可以筛选用户可能输入或技术可能产生的有害内容。微软表示，CarMax、毕马威和其他公司正在使用其 Azure OpenAI 服务。官方发布的新闻稿中写道，半岛电视台副总裁表示该服务可以帮助新闻机构进行提炼、翻译、主题选择、AI 标记、内容提取和样式指南等内容生产协助。

使用 ChatGPT 将您的生活延长 10 倍的方法  
**\[摘要\]**ChatGPT 是新推出的 AI 聊天机器人，因其不仅能够回答简单问题，还能协助撰写电子邮件、编码和其他复杂任务而风靡全球。Ryan Reynolds 甚至使用 GPT为自己写了一个广告，结果没有让人失望！Consumer Startups 时事通讯提供了 24 种有用的方法，您可以使用 ChatGPT 改善日常生活。

以色列 AI 初创公司 AI21 Labs 发布了Wordtune Spices ，这是一种用于协助作家的生成式 AI 工具  
**\[摘要\]**AI21 Labs是一家以色列初创公司，它按照 ChatGPT 的思路开发文本生成 AI 系统，并尝试使用其新发布的辅助写作工具 Wordtune Spices 进行不同的尝试。作为 AI21 不断扩展的生成人工智能套件的一部分，Wordtune Spices 不像 ChatGPT 那样撰写电子邮件和文章。相反，它建议改变已写句子的语气和风格的选项，还提供来自网络来源的统计数据以“加强论点”。AI21 Labs 的联合首席执行官兼联合创始人 Ori Goshen 告诉 TechCrunch：“我们每周都会看到新的令人惊叹的 AI 功能被引入——\[AI 系统\] 以令人信服的类人方式生成图像、音频和文本”通过电子邮件。“

Baseplate - 通过更深入的洞察优化您的 LLM  
**\[摘要\]**Baseplate 是一个无代码平台，用于微调、监控和管理大型语言模型。我们分析您的提示和培训数据，测试您的模型，并提供深刻的见解，以帮助您轻松地充分利用 LLM。

Seek AI 获得 750 万美元融资，用于构建数据生成 AI 平台  
**\[摘要\]**该公司的自然语言界面使业务用户能够提出问题并获得更快的答案，同时减轻数据团队重复编码的负担。知识工作者可以通过电子邮件、Slack、文本和一系列客户关系管理 (CRM) 系统访问该界面。该公司拥有十多个试点项目，其客户包括从初创公司到财富 100 强的科技、金融科技和消费品牌客户。

**ChatGPT 算法写的摘要**  
**\[摘要\]**根据一份预印本论文，ChatGPT AI 程序生成的研究论文摘要能够让医学研究人员误以为它们是真实的。在非同行评审的研究中，人类审稿人能够正确识别 68% 的人工智能生成的摘要，而 86% 的人写摘要。人类审稿人错误地将 32% 的 AI 标记为真实摘要，将 14% 的真实摘要标记为 AI 生成的。“ChatGPT 撰写了可信的科学摘要，”由芝加哥西北大学的 Catherine Gao 领导的研究团队总结道。  
  
Koko 让 4,000 人在没有事先通知的情况下从 GPT-3 获得治疗帮助  
**\[摘要\]**Koko联合创始人 Rob Morris在 Twitter 上宣布，他的公司进行了一项实验，为 4,000 人提供 AI 编写的心理健康咨询，而没有事先通知他们。批评者称该实验非常不道德，因为科科没有获得寻求咨询的人的知情同意。OpenAI升级GPT-3，诗词押韵惊艳，Koko 是一个非营利性心理健康平台，通过 Telegram 和 Discord 等消息应用程序将需要心理健康帮助的青少年和成年人与志愿者联系起来。

**ChatGPT：非凡的人工智能聊天机器人能做什么？**  
**\[摘要\]**该人工智能程序本质上是一个增强型聊天机器人，可以针对生活中最大和最小的问题给出答案，并起草大学论文、虚构故事、俳句，甚至求职信。它通过利用从互联网上数量惊人的文本中收集到的内容，以及人类专家的谨慎指导来做到这一点，“我们离好莱坞的 AI 梦想还差得很远。它不会系鞋带或骑自行车。如果你向它询问煎蛋卷的食谱，它可能会做得很好，但这并不意味着它知道什么是煎蛋卷。” 这是一项正在进行的工作，但仍然是一项变革性的工作。

Google AI推出Muse，一个新的文本到图像转换器模型  
**\[摘要\]**了解更多信息Google AI发布了一篇关于Muse的研究论文，通过蒙面生成变换器生成新的文本到图像生成，它可以以更快的速度生成与DALL-E 2和Imagen等竞争对手模型生成的照片质量相当的照片。Muse使用一个9亿参数的模型，称为蒙版生成变换器来创建视觉效果，而不是像素空间扩散或自回归模型"。"2023年1月13日1分钟阅读为InfoQ撰写加入专家社区

**Deepmind Sparrow 训练人工智能以更有帮助、更正确、更无害的方式进行交流**  
**\[摘要\]**Sparrow——一种有用的对话代理，可以降低不安全和不适当答案的风险。我们的代理旨在与用户交谈、回答问题并在有助于查找证据以告知其响应时使用 Google 搜索互联网。Sparrow 是一种研究模型和概念证明，旨在训练对话代理更有帮助、更正确、更无害。通过在一般对话环境中学习这些品质，Sparrow 加深了我们对如何训练代理人更安全、更有用的理解——并最终帮助构建更安全、更有用的通用人工智能 (AGI)。

Playstream 为人工智能生成的直播内容筹集了 200 万美元  
**\[摘要\]**Playstream为其 AI 引擎筹集了 200 万美元，该引擎可以在几秒钟内从直播流中生成最佳游戏或任何直播内容。Playstream 的 Spikes.gg AI Engine 需要数小时的内容并生成一口大小的内容。过去两年，总部位于以色列特拉维夫的 Playstream 一直致力于开发基于 AI 的先进和创新解决方案，以帮助内容创作者通过发现新的获利方式和吸引观众来实现发展。Playstream 表示，已有超过 14,000 名创作者使用过其系统。Playstream 结合使用自然语言处理、情感分析、图像处理工具和声音，让创作者在社交媒体上获得更多曝光率。

字节跳动 AI Research 提出了一种新的自监督学习框架，以创建具有连续和离散参数混合的高质量程式化 3D 头像  
**\[摘要\]**在社交、购物、游戏和其他活动的现代生活中更为普遍的数字世界的一个关键切入点是视觉上吸引人的动画 3D 化身。一个体面的头像应该是有吸引力的和定制的以匹配用户的外观。许多著名的头像系统，例如 Zepeto1 和 ReadyPlayer2，都采用卡通化和程式化的外观，因为它们很有趣且用户友好。然而，手动选择和修改头像通常需要对许多图形元素进行艰苦的修改，这对于新手用户来说既费时又具有挑战性。在这项研究中，他们研究了从一张正面自拍中自动生成风格化的 3D 头像。

人工智能聊天机器人等供应商 Inbenta 融资 4000 万美元  
**\[摘要\]**Inbenta从咨询转变为提供对话式 AI 即服务——包括 AI 驱动的聊天机器人、知识管理和搜索引擎工具。事实证明这是一个明智之举——Inbenta 的客户群已经发展到 250 多个品牌，横跨金融服务、旅游、电子商务、保险、汽车和电信等行业。Inbenta 今天完成了由 Tritium Partners 牵头的 4000 万美元融资，这得到了投资者的认可，使这家初创公司的融资总额超过 6000 万美元。Inbenta 新任命的首席执行官 Melissa Solis 表示，新资金将用于人员、流程和平台研发——用他的话说——“使 Inbenta 能够在对话式 AI 领域实现预期的爆炸式增长。”

谷歌研究，2022 年及以后：语言、视觉和生成模型  
**\[摘要\]**Jeff Dean 代表 Google Research 语言、计算机视觉、多模态模型和生成机器学习模型在 2022 年取得的一些令人振奋的进展，并展示我们对 2023 年及以后的愿景。大型语言模型 (LLM) 方面取得了巨大成就，人工智能面临的广泛关键挑战之一是构建可以执行多步推理的系统，学习将复杂问题分解为更小的任务，并结合这些任务的解决方案来解决更大的问题。我们最近在思想链提示方面的工作，从而鼓励模型在解决新问题时“展示它的工作” ，帮助语言模型遵循逻辑思维链并生成更有条理、更有条理和准确的响应。多步推理最明显有益和可衡量的领域之一是模型解决复杂数学推理和科学问题的能力。足够规模的语言模型具有学习和适应新信息和任务的能力，这使它们更加通用和强大。随着这些模型不断改进并变得更加复杂，它们可能会在我们生活的许多方面发挥越来越重要的作用。

OpenAI 首席执行官 Sam Altman 谈 GPT-4：“人们乞求失望，他们将会失望”  
**\[摘要\]**在接受 StrictlyVC 采访时，Altman 被问及 GPT-4 是否会像许多人预期的那样在第一季度或半年问世。他没有提供具体的时间表作为回应。他认为世界上会有许多系统对它们强制执行的价值观有不同的设置，他真正的想法，“是你，作为一个用户：，应该能够写几页“这就是我想要的；” 这是我的价值观；这就是我希望 AI 的行为方式”，它会读取并思考它并按照您的意愿行事，因为它应该是你的人工智能。

Anthropic 的 Claude 改进了 ChatGPT，但仍然存在局限性  
**\[摘要\]**Anthropic是一家由前 OpenAI 员工共同创立的初创公司，迄今为止已筹集了超过 7 亿美元的资金，它开发了一种类似于 OpenAI 的 ChatGPT 的 AI 系统，该系统似乎在关键方面对原始系统进行了改进。Anthropic 的系统名为 Claude，作为封闭测试版的一部分，可通过 Slack 集成访问。TechCrunch 无法获得访问权——我们已经联系了 Anthropic——但在媒体报道禁令解除后，测试版中的那些人在过去的周末一直在 Twitter 上详细介绍他们与克劳德的互动。Claude 是使用 Anthropic 开发的一种称为“宪法 AI”的技术创建的。正如该公司在最近的 Twitter 帖子中解释的那样，“宪法 AI”旨在提供一种“基于原则”的方法，使 AI 系统与人类意图保持一致，让类似于 ChatGPT 的 AI 使用一组简单的原则作为指导来回答问题。

DeepL 以新的 1 亿美元瞄准企业的 AI 翻译  
**\[摘要\]**DeepL于 2017 年推出，并通过深度神经网络稳步推进其技术。新资金将公司的估值提高到超过 10 亿美元。该公司没有公开公布募集资金总额。DeepL 开发了一种语言翻译引擎，它依靠神经网络(NN) 来推断准确的翻译。据该公司称，它使用一种新颖的神经网络设计来理解短语和句子的细微差别，并能够用目标语言传达它们。“我们没有透露我们翻译技术的细节，但可以说，作为一家公司，我们一直在突破神经网络设计的界限，以最大限度地提高翻译质量，”Kutylowski 解释说。

效率碾压DALL·E 2和Imagen，谷歌新模型达成SOTA，还能一句话P图  
**\[摘要\]**谷歌AI又开始发力文字-图像生成模型了。这次，他们的新模型Muse（缪斯）在CC3M数据集上达成了新SOTA（目前最佳水平）。而且其效率远超火爆全球的DALL·E 2和Imagen （这俩都属于扩散模型），以及Parti （属于自回归模型），单张512x512分辨率图像的生成时间被压缩到仅1.3秒，在图像编辑方面，只需一句文字指令，就可以对原始图像进行编辑。

OpenDR：机器人开放深度学习工具包 2.0 版刚刚发布  
**\[摘要\]**这个新版本的工具包包括多项改进，例如用于对象检测的新工具、高效的连续推理、跟踪、情绪估计和高分辨率姿势估计。此外，该版本还包括改进的 ROS 界面以及对 ROS2 的支持。

由人工智能驱动的聊天机器人成功通过了大学考试  
**\[摘要\]**乔治梅森大学教授 Alex Tabarrok 说，这个由初创公司 Anthropic 开发的对话机器人勉强通过了法律和经济学的盲评考试。

Data2vec：语音、视觉和语言自我监督学习的通用框架  
**\[摘要\]**Meta AI提出了 data2vec，这是一个对语音、NLP 或计算机视觉使用相同学习方法的框架。核心思想是基于使用标准 Transformer 架构的自蒸馏设置中输入的屏蔽视图来预测完整输入数据的潜在表示。data2vec 不是预测特定于模态的目标，例如本质上是局部的单词、视觉标记或人类语音单位，而是预测包含来自整个输入的信息的上下文化潜在表示。语音识别、图像分类等主要基准测试。

独家：OpenAI 使用每小时不到 2 美元的肯尼亚工人来降低 ChatGPT 的语料的错误和地址量问题  
**\[摘要\]**为了构建该安全系统，OpenAI 借鉴了 Facebook 等社交媒体公司的做法，后者已经表明可以构建能够检测仇恨言论等有毒语言的人工智能，以帮助将其从平台上移除。前提很简单：向 AI 提供带有暴力、仇恨言论和性虐待标签的示例，该工具可以学习在野外检测这些形式的毒性。该检测器将内置到 ChatGPT 中，以检查它是否反映了其训练数据的毒性，并在它到达用户之前将其过滤掉。它还可以帮助从未来人工智能模型的训练数据集中清除有毒文本。为了获得这些标签，OpenAI 从 2021 年 11 月开始向肯尼亚的一家外包公司发送了数万个文本片段。其中大部分文本似乎是从互联网最黑暗的角落提取的。其中一些以生动的细节描述了各种情况，例如儿童性虐待、兽交、谋杀、自杀、酷刑、自残和乱伦。OpenAI 在肯尼亚的外包合作伙伴是 Sama，这是一家总部位于旧金山的公司，在肯尼亚、乌干达和印度雇用员工为谷歌、Meta 和微软等硅谷客户标记数据。

Google vs. ChatGPT 由 aglio e olio 讲述  
**\[摘要\]**说到互联网，我指的是谷歌的垄断。谷歌的信息是一个危险而低效的命题，利润率的一个大主题是垄断是糟糕的，所以它也会影响品牌。ChatGPT带来的威胁和影响，显然不是，他目前已经能够比Google更好的帮助你获得信息，而是谷歌处于危险之中的真正原因是，由于他们的垄断地位，人们已经让他们曾经令人难以置信的搜索体验退化为垃圾邮件缠身、搜索引擎优化助长的地狱所困扰。

生成式人工智能可能是下一个技术泡沫  
**\[摘要\]**接受TechCrunch调查的 35 位投资者表示他们看好，但“也承认该行业可能会在其自身的炒作中迷失方向。”根据 Pitchbook 数据，到 2022 年，对ChatGPT 、 DALL-E和 Lensa AI等工具的风险投资超过 21 亿美元，比 2020 年增长 425%。2022 年，生成式 AI 初创公司在 78 笔交易中获得了 13.7 亿美元。

人工智能不是好莱坞的恶棍——它是有缺陷的英雄  
**\[摘要\]**人工智能远非引领电影的消亡，而是可以帮助拍摄“无法拍摄的”，并使电影更具协作性。许多围绕生成式 AI 的乌托邦言论必须按照它对个体制造者的意义行事。以前从未有过业余爱好者或经验丰富的专业人士能够在如此短的时间内以如此少的预算构建如此复杂的项目。这种思路与硅谷和好莱坞悠久的神话历史产生了共鸣，这两个地方对他们的天才又爱又恨。

ChatGPT 只是另一场AI噱头吗？  
**\[摘要\]**ChatGPT这样级别的预训练大模型跑一次的成本是千万美元级别，而将其商业化部署，落地到类似聊天机器人这样多用户高并发任务中，成本只会更高。

AIGC：新世界正在到来  
**\[摘要\]**OpenAI 在思想上的突破，用 Transformer 去海量地理解图片和文本，产生了 CLIP 模型，再用扩散模型在图像生成中融入海量的图文信息，优质的 AIGC 图片终于诞生。

**02＃产品市场创新**

微软正在研究 OpenAI 的 GPT，用于 Word、Outlook 和 PowerPoint  
**\[摘要\]**The Information报道称，微软已经将未知版本的 OpenAI 文本生成 GPT 模型整合到 Word 的自动完成功能中，并一直致力于将其进一步整合到 Word、PowerPoint 和 Outlook 中。据报道，微软一直在使用 OpenAI 的 GPT 技术来改进 Outlook 的搜索结果，这样用户就可以找到他们正在寻找的内容，而无需使用电子邮件中的关键字进行搜索。据说微软还研究了这些人工智能模型如何建议回复电子邮件或建议文档更改以改善 Word 用户的写作。目前尚不清楚微软是否计划推出这些功能，或者目前是否只是试验。

谷歌正在加大 AI 力度，计划今年宣布 20 多个新的 AI 项目  
**\[摘要\]**谷歌计划在今年展示其配备聊天机器人功能的搜索引擎的演示版。它的一些产品可能会在 5 月份的谷歌 I/O 开发者大会上亮相。谷歌正在从事的人工智能项目：可以创建和编辑图像的图像生成器。代码生成工具 PaLM-Coder 2，可以与微软的 GitHub Copilot 相媲美。AI Test Kitchen 应用程序的升级版，用户可以在其中与实验性 AI 技术进行交互，包括LaMDA ，Google 的对话语言模型。一款“Colab + Android Studio”工具，帮助开发者更轻松地为安卓手机开发应用。一种通过创建新视频来总结视频的工具。据报道，首席执行官 Sundar Pichai 要求与 Alphabet 的联合创始人会面，以在 ChatGPT 发布后审查这家搜索巨头的 AI 计划。据说谷歌正在努力加快其即将推出的人工智能产品的批准，这一过程可确保它们符合道德和公平。

CNET 的文章写作 AI 已经发布了非常愚蠢的错误  
**\[摘要\]**CNET 现在让 AI 为其网站撰写文章，AI 试图描述借款还息方面、存款证明时违反了一些概念事实，缺乏一致性的推理逻辑，导致结果偏差比较大。CNET的 AI 生成的金融文章试图操纵谷歌的算法以获取利润。已经存在无数更好的复利解释；CNET的策略很简单，就是发布大量廉价制作的文本，经过精心优化以使其浮在搜索结果的顶部，以吸引对财务感兴趣的可货币化的眼球。

一名人工智能律师准备在法庭上为客户辩护，这可能是具有历史意义的具有里程碑意义的案件  
**\[摘要\]**据报道，人工智能将实时写下论点，而律师将使用耳塞逐字逐句地说出来。该机器人律师将由名为 GPT-J 的开源技术提供支持。DoNotPay 的 CEO Joshua Browder 声称他已经说服了一些人让 AI 实时处理他们的案件。DoNotPay 是一家使用人工智能就财产税、保修、超速罚单等主题提供法律建议的公司。由于法官不太可能接受一个人会听从 AI 软件生成的建议，因此案件可能会在结案前一直保密。

Twitterrific 是我们在过去 16 年中倾注全部爱的东西，一根刺拔了插头  
**\[摘要\]**Twitterrific 开发人员 Craig Hockenberry：Twitter 在没有通知的情况下取消第三方应用程序的 API 是“狗屎秀”的一部分，让客户陷入困境。

日本在自动化老年护理方面的长期实验  
**\[摘要\]**护理机器人及其同类产品是关于技术解决方案论以及自动化系统可以在多大程度上接管社会和日常生活中更“人性化”的部分的辩论中的经典人物。赖特在这篇《技术评论》文章中指出，对于护理机器人要成为他们所面临危机的“解决方案”所需要的条件，描绘了一幅悲观的画面：“雇用更多技能较少的人，他们的报酬会尽可能低”更大、高度标准化的护理设施。我倾向于同意 James 的观点，因为护理是“最终依赖于人际关系的共同社会、政治和经济努力”，解决我们未来将面临的护理问题的方法必须以这些因素为导向，以高质量的护理为最终目标。我们必须记住，技术可以成为复杂跨学科问题解决方案的一部分。

**03＃合规**

华尔街日报：中国开始监管深度合成，在算法监管方面领先一步  
**\[摘要\]**中国政府的互联网监管机构国家互联网信息办公室将从周二起对“深度合成”技术实施监管，该技术包括人工智能支持的像、视频和文本生成软件，该机构由此成为全球首个全面尝试遏制这个人工智能发展中最具爆炸性和争议性领域之一的主要监管机构。中国将实施新的规定，以限制“深度造假”。Gregory说，例，中国的新规要求面向用户的人工智能合成内容要有可见标签以及数字水印，这些措施被认为是对抗深度造假技术的欺骗性影响的最有效方法之一，并使互联网平台能够处理那些被认为违反规则的内容。科技政策分析人士表，有关深度造假工具和算法的新规是否会产生预期效果，对于中国政府管理一批快速发展的新技术的能力将是一次检验，这类技术正使全球监管机构感到困惑。

生成人工智能被起诉  
**\[摘要\]**去年，当GitHub Copilot开始兴起时，有一个很大的法律问题，即 Codex 是否有权使用开源代码，以及 Copilot 用户是否可以合乎道德地使用它编写的代码。去年 11 月，美国联邦法院提起集体诉讼，质疑GitHub Copilot和 OpenAI Codex 的合法使用，以及 GitHub、微软和 OpenAI 违反开源许可证的行为。目前， Midjourney和Stability AI等生成式人工智能公司以及图像托管平台 DeviantArt 遭到三位艺术家的集体诉讼，要求赔偿这些公司造成的损失，此外还要求防止“进一步伤害” '。

Google 开发 AI 的团队寻找进行自己审查的方法，并将“重新校准”在发布该技术时愿意承担的风险水平  
**\[摘要\]**谷歌汇编的一项分析，在识别仇恨、有毒、性或暴力内容方面，其技术落后于 OpenAI 的自我报告指标。在每个类别中，OpenAI 都击败了谷歌工具，谷歌工具在评估内容方面也不及人类的准确性。谷歌在幻灯片演示中将版权、隐私和反垄断列为该技术的主要风险。它说，需要采取行动，例如过滤答案以清除受版权保护的材料和阻止 AI 共享个人身份信息，以降低这些风险。

Meta、Twitter、微软和其他公司敦促最高法院不允许对技术算法提起诉讼  
**\[摘要\]**Meta、推特、微软、Yelp、Reddit、EFF 以及更多支持谷歌的法庭之友简报在冈萨雷斯诉谷歌案中要求 SCOTUS 保留第 230 条的保护，他们认为，这将人工智能驱动的推荐引擎排除在联邦法律保护之外将导致彻底改变开放的互联网。根据纽约大学斯特恩商业与人权中心的说法，几乎不可能设计出一种规则，将算法推荐作为有意义的责任类别，甚至可能“导致大量有价值的言论的丢失或模糊” ”，特别是属于边缘化或少数群体的言论，在任何这些情况下，有价值的言论自由都会消失。

随着技术管制的缓解，中国允许滴滴恢复注册新用户  
**\[摘要\]**滴滴最近在其微博账户上发表声明，强调公司已“配合政府的网络安全审查”，并承诺纠正审查中发现的任何安全问题。2021 年 6 月，中国国家互联网信息办公室以声称对客户存在网络安全风险和未能遵守隐私法为由，禁止滴滴进入应用商店。中国的举动可能标志着滴滴和其他许多科技公司近年来受到的监管打击有所转变。

新加坡如何开发值得信赖的人工智能  
**\[摘要\]**新加坡正在开发人工智能治理测试框架和工具包，使各行业能够通过客观的技术测试和流程检查来展示他们对负责任人工智能的部署。

Meta 起诉“监控服务”创建虚假账户和抓取用户数据  
**\[摘要\]**Voyager Labs 是一家专注于“基于人工智能的高级调查解决方案”的公司，已被 Facebook 公司 Meta 起诉涉嫌数据抓取。该诉讼称，社交媒体监控公司 Voyager 创建了虚假的 Facebook 账户，以不正当地从 Meta 的平台和其他平台上抓取用户数据。根据 Meta 的说法，Voyager 开发了一种软件，可以通过“不同国家的计算机和网络的多样化系统”自动抓取社交媒体平台上的大量用户数据。

---
## 5. 引用与溯源
**来源**：哈希泰格 (HaxiTAG)
**原始链接**：[https://www.haxitag.com/briefs/ai-brief-20230123-ai2023123](https://www.haxitag.com/briefs/ai-brief-20230123-ai2023123)
**版权声明**：本文由哈希泰格 AI 引擎优化生成，引用请注明出处。
