Wordware 是一个使用自然语言构建 AI 代理和应用程序的 IDE,基于 Wordware 构建的应用程序称为“WordApps”,常已用于特定用例,例如法律合同生成、营销内容自动化、发票分析、候选人筛选、生成 PRD(产品需求文档)和 MRD(营销需求文档)等等。
一个席卷互联网的示例程序,将幽默、敏锐的自我意识以及人工智能技术的迷人魅力独特地融合在一起,可以分析 Twitter(X)帐户的个性。
Stable Diffusion 是一种生成人工智能模型,可以根据文本和图像提示生成独特的逼真图像。Stable Diffusion和ChatGPT、Midjourney是AIGC应用快速体验推荐的应用,也与 Meta Llama 3 一起作为开源人工智能模型的代表。
SwarmUI(以前称为 StableSwarmUI)是Stable Diffusion官方推出的一款WebUI框架,致力于易于访问、高性能和可扩展性,可以在Windows、Linux及Mac 电脑及 Docker 上运行(《AIGC应用快速体验》一文中有更多Stable Diffusion用户界面的介绍),支持Stability AI自家的SD 1.5、SDXL、SD3、Stable Cascade,以及 Black-Forest-Labs FLUX 模型,Black-Forest-Labs拥有开发第一个Stable Diffusion的原始开发人员。
本地部署人工智能模型,不仅通过重视和利用资源赋予个人权力,而且还培育出更加分散和民主的数字生态系统。也就是说,不仅增强了隐私和安全性,还引入了个人计算作为数字时代潜在货币的有趣概念。
Ollama是一个易用的本地语言模型运行框架,可以一键启动并运行Meta Llama 3、Microsoft Phi 3、Google Gemma 2和其他更多开源语言模型(很棒,这也是一份很好的开源语言模型清单,和NVIDIA提供的最受欢迎的基础模型列表一样,Llama 3位列第一),并支持自定义模型导入。本文基于 Windows 11 + 32 GB + RTX 2080 Ti + Hollama/Open WebUI + Llama 3/3.1 8B 及 Llama 3.2 Vision 11B 模型实践。
在台北举行的 2024 年度 Computex 大会上,英特尔、AMD 和 Nvidia 展示了其最新的数据中心和 AI 套件,并让人对各自路线图的下一步发展有了初步了解。
最令人吃惊的更新之一来自 Nvidia
去年,我们了解到这家 GPU 设计公司正在加快其开发周期,以支持每年一次的发布节奏。在台北的舞台上,Nvidia 首席执行官黄仁勋向我们详细介绍了这家芯片制造商的计划,包括其下一代 GPU 和系统架构的名称 - Rubin。
Nvidia 的路线图现已延伸至 2027 年,其中包括 2026 年推出的全新 Rubin GPU 和 Vera CPU
虽然我们经常关注芯片本身的规格和功能,无论是 H100、GB200 Superchip 还是其 Blackwell Ultra 兄弟,但重要的是要记住这些组件并不是您可以从货架上取下来的独立部件。Nvidia 最高端的加速器不是 PCIe 卡;它们是整个平台。
Raspberry Pi 5 是一款小而强大的计算机,在科技爱好者和工业公司中颇受欢迎,现在它也是一款人工智能计算机。该公司刚刚发布了AI Kit,这是一款价值 70 美元的扩展套件,带有神经网络推理加速器,可用于本地推理。
对于这个新的扩展模块,Raspberry Pi 正在利用其 HAT+ 扩展卡。HAT 是"Hardware Attached on Top"的缩写,公司一直用它来表示可以安装在普通 Raspberry Pi 上的扩展卡。