具有数千亿个参数的大规模模
型的训练和更新成本极其昂贵。这使得大多数组织无法进行开发。然而,最近迁移学习和人工智能开发工具的改进使得举办自己的法学硕士变得更加容易。Meta 的 和斯坦福大学衍生项目 Alpaca 等解决方案都是较小的模型,可以使用低至600 美元的云计算成本进行训练。。有些解决方案足够小,可以在一台 上进行训练。 这种方法的缺点是所得模型的质量稍低,尽管定性分析表明它们的性能仍然足以达到其预期目的。 本地托管的模型可以根据您自己的知识库进行定制;随着时间的推移,它们甚至可以变得比公共模特更好。著名的泄露的谷歌备忘录说“我们没有护城河”也暗示了同样的事情。完全有可能的是,关于生成人工智能的秘密已经被发现,并且在不久的将来,我们将看到简化定制模型开发的工具和技术的持续改进。使用本地托管解决方案将显着降低信息泄露的风险,包括个人数据泄露,因为任何数据都不会离开其受保护的环境。然而,它并没有完全消除风险。例如,数据建模的标准实践是领域事件不应公开数据模型或内部领域逻辑。在某种程度上,这是为了避免系统和服务的紧密耦合,从而巩固软件架构,但这也是防止元数据泄漏的最佳实践。内部元数据 克罗地亚 WhatsApp 号码列表 和数据模型可能包含您不希望向整个公司公开的敏感信息。数据网格架构通过确保只能通过数据产品的输出端口访问数据和元数据来明确解决此问题。 引入组织范围内的 LLM 可以像开放 API 模型一样打破这种隔离。如果团队向人工智能提供特定于领域的逻辑或数据模型,人工智能可能能够将这些信息过滤出领域。
https://zh-cn.sgphonelist.co.uk/wp-content/uploads/2024/02/online-store-1674907_640.png
鉴于托管自己的生成人工智能的成本和复杂性不断降低,每个领域拥有自己的自定义模型可能很快就会成为最佳实践。我们还没到那一步。有效地训练和托管本地模型仍然是一项技术挑战,但可以解决。几年来,我们利用机器学习持续交付 (CD4ML)原则,成功构建了运行特定领域模型的机器学习平台。事实上,我们相信持续交付原则对于确保高质量、安全的软件开发比以往任何时候都更加重要。 “防止引入漏洞的最佳方法是确保拥有健全的审查流程。” 持续交付实践 防止引入漏洞的最佳方法是确保您拥有健全的审核流程。在 Thoughtworks,我们大力倡导结对编程我们相信,让两个人参与整个软件开发过程对于创建高质量的代码至关重要。
页:
[1]