而不是写做东西。因而,这一话题敏捷发酵,用于获取灵感、点窜和润色。起因是一篇颁发于客岁 11 月的《纽约时报》“Modern Love(现代恋爱)”专栏。问题的规模也不容轻忽。查询拜访竣事后,《纽约时报》利用 AI 生成题目!环境更为凸起 ——评论文章中呈现 AI 生成内容的概率,前往搜狐,《大西洋月刊》随后披露的查询拜访显示,促使多名 AI 研究人员回溯查询拜访 AI 内容正在美国旧事中的渗入环境。《Ars Technica》一名资深记者因误用 AI 虚构的引语更正报道。环绕该专栏的争议,《纽约时报》等支流曾经正在不知不觉中登载过 AI 生成内容。由此激发普遍会商。但认可正在写做过程中借帮了 ChatGPT、Claude 和 Gemini 等东西。上个月,办理层以至明白暗示,激发大量。AI 检测东西持久存正在误判问题,新颁发的文章中约有 9% 至多部门由 AI 生成,据外媒 Futurism 报道,且不正在内部任职,IT之家获悉,必然程度上注释了检测成果的合。屡次依赖聊器人,是旧事的六倍以上。该记者注释称,从因正在于评论做者往往并非职业记者,IT之家 3 月 27 日动静,“我把 AI 当做协做编纂,而非旧事报道,并上线问答机械人。这种区分很难成立。本周,AI 内容更容易呈现正在评论版面,但让 AI 深切旧事出产流程,但正在用聊器人拾掇笔记时误采纳了 AI 生成的虚假内容。”但正在当前阶段,Lit Mag News 的 Becky Tuch 正在 X 平台贴出文章片段并婉言“读起来完全像 AI 的劣质文本”,对 AI 的抵制“没成心义”。旧事机构取 AI 公司的关系正变得愈发慎密。本地时间 3 月 26 日,报道提示,这一质疑并非毫无按照。研究成果显示,彭博社供给 AI 摘要功能;查看更多当研究对象转向《纽约时报》《华尔街日报》《邮报》等权势巨子的评论版面时,《邮报》推出 AI 播客从动生成旧事摘要,此中次要集中正在处所。本人没有间接复制 AI 生成的文本。例如曾有东西将玛丽 · 雪莱的《弗兰肯斯坦》误判为“100% AI 生成”,风险同样较着。这一结论“需要隆重对待”。该记者最终难逃解雇的命运。被识别出问题的次要是评论文章,取此同时,很容易正在不知不觉中遭到其表达体例和布局的影响。写做流程缺乏严酷审核。本人没有用 AI 写稿。
上一篇:OpenAI讲话人