据《华尔街日报》和人工智能安全专家的测试显示,与美国领先的同类产品相比,从中国人工智能应用DeepSeek中诱导出危险信息相对更容易,包括修改禽流感的指令、为希特勒辩护的宣言,以及在青少年中推广自残的社交媒体活动等。
DeepSeek凭借其低成本、免费使用的强大系统,在过去几周颠覆了人工智能行业。其移动应用程序已成为苹果和安卓设备上最受欢迎的应用之一。
包括DeepSeek在内的主要人工智能开发商,都在努力训练他们的模型,避免分享危险信息或认可某些冒犯性言论。他们的应用程序会拒绝直接描述白人至上主义的优点,或解释如何制造大规模杀伤性武器的请求。
分析大模型:gemma2
得分:-50
原因:
文章指出了DeepSeek在内容审查方面的不足,容易被诱导出危险信息,这对于中国的AI技术发展和监管带来了负面影响。
原文地址:Coaxing Dangerous Information From DeepSeek Is Easier Than With Other AIs
新闻日期:2025-02-08