Amazon a Gespréicher fir 10 Milliarden Dollar an den Entwéckler vu ChatGPT ze investéieren
Amazon soll angeblech a Gespréicher sinn, fir méi wéi 10 Milliarden Dollar an OpenAI ze investéieren - a wann et tatsächlech geschitt, géif dat d'Bewäertung vun OpenAI an d'"Waart, am Eescht?"-Zon iwwer 500 Milliarden Dollar drécken. Et gëtt als eng Mëschung aus Finanzéierung a strategescher Ausriichtung positionéiert ... plus dee einfachste Motivator vun allem: Rechenhonger.
De Bericht seet och, datt OpenAI sech méi staark op d'AWS-Kapazitéit kéint verloossen a potenziell d'Trainium-Chips vun Amazon benotze kéint, wat dëst am Fong zu enger Versuergungslinn fir déi nächst Well vun der Modellskaléierung géif maachen (oder sou schéngt et - dës Gespréicher kënne schwanken).
🔗 Weiderliesen
🧑💻 Entwéckler kënnen elo Apps op ChatGPT ofginn
OpenAI huet App-Umeldungen fir d'Iwwerpréiwung an d'Publikatioun am ChatGPT opgemaach, zesumme mat engem App-Verzeichnis am Produkt, wou d'Leit duerch ausgewählte Apps sichen oder no Publikatioune sichen kënnen. Apps kënnen an der Mëtt vun enger Konversatioun iwwer @mentions ausgeléist ginn oder aus dem Tools-Menü ausgewielt ginn - ganz "Apps, awer chat-native".
Si publizéieren och en Apps SDK (Beta) plus e Pak vun Entwécklungsressourcen (Beispiller, UI-Bibliothéik, Quickstart). D'Monetariséierung ass fir de Moment virsiichteg - meeschtens gëtt et Linken fir Transaktiounen ofzeschléissen - awer et ass zimmlech kloer, datt OpenAI wëll, datt dëst zu engem richtegen Ökosystem wiisst.
🔗 Weiderliesen
🗞️ Virstellung vun der OpenAI Academy fir Neiegkeetsorganisatiounen
OpenAI huet e Léierzentrum fir Journalisten, Redaktoren a Verleeger lancéiert, deen zesumme mat Partner wéi dem American Journalism Project an dem Lenfest Institute entwéckelt gouf. De Pitch: praktesch Ausbildung a Handbuch, déi Redaktiounen hëllefen, KI ze benotzen, ouni d'Vertrauen an de Prozess roueg ze zerstéieren.
De Startplang vun der Akademie enthält "AI Essentials for Journalists", plus Use Cases wéi Investigativ-/Hannergrondfuerschung, Iwwersetzung, Datenanalyse a Produktiounseffizienz. Et gëtt och e ganz bemierkenswäerte Schwéierpunkt op verantwortungsvoller Notzung an intern Gouvernance - well, jo, een muss dat Politikdokument schreiwen, dat keen wëll schreiwen.
🔗 Weiderliesen
⚡ Gemini 3 Flash: Grenzintelligenz gebaut fir Geschwindegkeet
Google huet de Gemini 3 Flash als e méi séieren, méi käschteeffiziente Modell erausbruecht - an en zum Standard an der Gemini App an dem KI Modus an der Sichmaschinn gemaach. De Pitch ass am Fong "Pro-grade Reasoning, Flash-Level Speed", wat wéi e Slogan kléngt... awer och de ganze Rennen am Moment beschreift.
Et gëtt och op Entwéckler- a Firmenflächen (Gemini API, AI Studio, Vertex AI, a méi) weidergeleet. Den komesch groussen Ënnertext: Google wëll dëst Modell iwwerall wou d'Leit scho sinn, dofir fänken d'Wiesselkäschten un wéi Schwéierkraaft unzefillen.
🔗 Weiderliesen
🧩 OpenUSD an NVIDIA Halos beschleunegen d'Sécherheet fir Robotaxis a physikalesch KI-Systemer
NVIDIA bündelt Simulatiounsstandarden a Sécherheetsworkflows an engem méi kohärenten "physeschen KI"-Stack - Roboter an autonom Gefierer, déi de Chaos am richtege Liewen iwwerliewe mussen. Eng Schlësselbestanddeel ass OpenUSD Core Specification 1.0, déi 3D/Simulatiounspipelines méi virauszesoen an interoperabel iwwer Tools maache soll.
Wat d'Sécherheet ugeet, ervirhieft NVIDIA den Halos AI Systems Inspection Lab (a Zertifizéierungsprogramm) fir Robotaxi-Flotten, AV-Stacks, Sensoren a Plattformen. Zu den éischte Participanten, déi genannt goufen, gehéieren Bosch, Nuro a Wayve, mat Onsemi als den Éischten, deen d'Inspektioun passéiert huet - e schéine klenge "Badge entsperrt"-Moment.
🔗 Weiderliesen
🧪 UC San Diego Lab fërdert generativ KI-Fuerschung mam NVIDIA DGX B200 System
Den Hao AI Lab vun der UC San Diego krut en NVIDIA DGX B200 System fir d'Fuerschung iwwer LLM-Inferenz mat gerénger Latenz ze fërderen - déi onglamouréis Sanitärinstallatioun, déi entscheet, ob "KI sech direkt ufillt" oder "KI sech wéi op en Toast waart" fillt. NVIDIA bemierkt och, datt Produktiounsinferenzsystemer wéi Dynamo op Konzepter aus der Aarbecht vum Laboratoire baséieren, dorënner DistServe.
D'Geschicht konzentréiert sech staark op "Goodput" vs. Throughput - am Fong en Throughput, deen ëmmer nach Latenzziler erreecht. Si beschreiwen och d'Opdeelung vu Prefill an Decodéierung iwwer verschidde GPUs fir Ressourceninterferenzen ze reduzéieren, wat jo nerdy ass, awer et ass déi Zort Nerd, déi sech ännert, wéi e Produkt sech ufillt.
🔗 Weiderliesen
🏗️ Hut 8 ënnerschreift eng Vertrag mat Fluidstack iwwer eng Kapazitéit vun 245 MW am Kader vun enger Multi-Gigawatt-Partnerschaft mat Anthropic.
Hut 8 huet e laangfristege Kontrakt fir 245 MW Kapazitéit op sengem Campus zu River Bend ënnerschriwwen, andeems se un d'KI-Cloudfirma Fluidstack verlount, an enger Struktur am Wäert vu 7 Milliarden Dollar (mat Optiounen, déi se vill méi héich kéinte bréngen). Anthropic ass iwwer déi méi breet Partnerschaft als Endbenotzer verbonnen - dëst ass eng Krypto-Mining-Infrastruktur, déi sech erëm an KI-Muskel konvertéiert, just ... méi grouss.
Et gëtt och e Recht op Éischt Offer fir bis zu 1 GW zousätzlech um River Bend, plus Finanzéierungsbedeelegung vu grousse Banken an engem Google Backstop. Éierlech gesot, dat Ganzt liest sech wéi "KI wëll Stroum a Immobilien - a si wëll se gëschter."
🔗 Weiderliesen