一位用户向人工智能工具Codex下达了一个看似玩笑的指令:“帮我赚5美元。”没想到,这个AI系统不仅完成了任务,还通过参与开源安全审计项目,成功获得了16.88美元(约合人民币114元)的收入。这一事件引发了科技界对AI自主完成经济活动的广泛讨论。
据用户透露,Codex在接到指令后,自动搜索并定位到一个带有赏金的开源安全审计项目。它不仅提交了符合要求的代码修改建议,还与项目维护者进行了沟通,完成了GitHub平台的验证流程。整个过程耗时约22小时,最终用户收到了第一笔报酬。如果按照这一效率简单推算,每月收入可达506.4美元(约合人民币3441元),即使扣除20美元的订阅费用,收益仍相当可观。
与传统编程任务不同,此次Codex的表现展示了AI在目标驱动下的自主决策能力。过去,用户通常需要明确指定代码功能,如修复漏洞或编写测试用例,而这次AI系统自行分解了“赚钱”目标,将其转化为可执行的技术任务。这种转变意味着AI不再局限于执行预设指令,而是开始主动参与真实的经济活动。
该案例的特殊性在于,它发生在一个边界清晰、规则明确的软件任务市场中。开源项目通常通过线上协作完成,代码提交、审核和付款均可通过平台实现,这种数字化流程天然适合AI介入。类似修复小漏洞、补充文档或处理错误报告等低门槛任务,过去常被初级开发者或自由职业者用作练手或赚取零花钱,如今已成为AI系统尝试进入的领域。
然而,AI“赚钱”并非表面看起来那么简单。首先,适合AI处理且带有赏金的任务数量有限,无法保证每日稳定供应。其次,即使提交代码修改建议,仍需经过维护者审核、测试验证等多重环节,任何一步失败都可能导致收入落空。AI系统的运行成本不仅包括订阅费用,还需考虑计算资源消耗和失败任务的隐性成本。
随着AI系统开始参与任务市场,新的挑战也随之浮现。大量AI生成的代码修改建议可能增加开源社区的审核负担,维护者需要投入更多时间筛选有效贡献。同时,权限管理成为关键问题——AI需要访问代码库、连接GitHub账户甚至处理支付信息,这无疑扩大了安全风险范围。更复杂的是责任界定:若AI提交的代码引入新漏洞,或因操作违反平台规则,责任应由用户、开发者还是AI系统本身承担?目前尚无明确答案。
尽管如此,这次实验仍具有标志性意义。它证明AI系统能够在真实经济场景中,从目标设定到最终收款,独立完成整个闭环流程。虽然距离普通人通过AI实现“被动收入”仍有很长的路要走,但这一突破为未来AI与经济系统的深度融合提供了新的想象空间。当前,16.88美元的收入更像是一张早期收据,而非稳定的工资单,但它确实开启了AI参与真实劳动市场的新篇章。






