💰 Amazon in gesprek om $10 miljard te belê in ontwikkelaar van ChatGPT
Amazon is glo in gesprek om meer as $10 miljard in OpenAI te belê - en as dit werklik gebeur, sal dit OpenAI se waardasie in die "wag, ernstig?"-sone bo $500 miljard stoot. Dit word geposisioneer as 'n mengsel van befondsing en strategiese belyning ... plus die eenvoudigste motiveerder van almal: rekenaarhonger.
Die verslaggewing dui ook daarop dat OpenAI meer op AWS-kapasiteit kan staatmaak en moontlik Amazon se Trainium-skyfies kan begin gebruik, wat dit basies in 'n voorsieningslyn vir die volgende golf van modelskalering kan omskep (of so lyk dit - hierdie gesprekke kan wankel).
🔗 Lees meer
🧑💻 Ontwikkelaars kan nou programme by ChatGPT indien
OpenAI het programvoorleggings oopgemaak vir hersiening en publikasie binne ChatGPT, tesame met 'n in-produk programgids waar mense deur uitgeligte programme kan blaai of kan soek vir enigiets wat gepubliseer is. Programme kan midde-in 'n gesprek geaktiveer word via @meldings of gekies word uit die gereedskapkieslys - baie "programme, maar klets-inheems"
Hulle stoot ook 'n Apps SDK (beta) plus 'n bundel ontwikkelhulpbronne (voorbeelde, UI-biblioteek, kitsbegin) uit. Monetarisering is tans versigtig - meestal skakels om transaksies te voltooi - maar dit is redelik duidelik dat OpenAI wil hê dit moet tot 'n ware ekosisteem groei.
🔗 Lees meer
🗞️ Bekendstelling van OpenAI Akademie vir Nuusorganisasies
OpenAI het 'n leersentrum bekendgestel wat gemik is op joernaliste, redakteurs en uitgewers, gebou met vennote soos die American Journalism Project en The Lenfest Institute. Die voorstel: praktiese opleiding en handleidings wat nuuskantore help om KI te gebruik sonder om vertroue in die proses stilweg te ondermyn.
Die Akademie se bekendstellingslys sluit "KI-noodsaaklikhede vir joernaliste" in, plus gebruiksgevalle soos ondersoekende/agtergrondnavorsing, vertaling, data-analise en produksiedoeltreffendheid. Daar is ook 'n baie merkbare klem op verantwoordelike gebruik en interne bestuur - want, ja, iemand moet die beleidsdokument skryf wat niemand wil skryf nie.
🔗 Lees meer
⚡ Gemini 3 Flash: grensintelligensie gebou vir spoed
Google het Gemini 3 Flash as 'n vinniger, meer koste-effektiewe model bekendgestel - en dit die verstek in die Gemini-app en KI-modus in Soek gemaak. Die toonhoogte is basies "Pro-graad redenasie, Flash-vlak spoed," wat soos 'n slagspreuk klink ... maar ook soort van die hele wedloop op die oomblik beskryf.
Dit word ook oor ontwikkelaars- en ondernemingsoppervlaktes gestoot (Gemini API, AI Studio, Vertex AI, en meer). Die vreemd groot subteks: Google wil hierdie model oral hê waar mense reeds is, so oorskakelingskoste begin soos swaartekrag voel.
🔗 Lees meer
🧩 OpenUSD en NVIDIA Halos versnel veiligheid vir robotaksies, fisiese KI-stelsels
NVIDIA bundel simulasiestandaarde en veiligheidswerkvloei in 'n meer samehangende "fisiese KI"-stapel - robotte en outonome voertuie wat werklike chaos moet oorleef. 'n Sleutelbestanddeel is OpenUSD Core Specification 1.0, wat bedoel is om 3D/simulasiepyplyne meer voorspelbaar en interoperabel oor gereedskap heen te maak.
Aan die veiligheidskant beklemtoon NVIDIA die Halos AI Systems Inspection Lab (en sertifiseringsprogram) vir robottaksi-vlote, AV-stapels, sensors en platforms. Vroeë deelnemers wat genoem is, sluit in Bosch, Nuro en Wayve, met Onsemi wat as die eerstes uitgeroep is om inspeksie te slaag - 'n lekker "kenteken-ontsluit"-oomblik.
🔗 Lees meer
🧪 UC San Diego Laboratorium Bevorder Generatiewe KI-navorsing met NVIDIA DGX B200-stelsel
UC San Diego se Hao KI-laboratorium het 'n NVIDIA DGX B200-stelsel ontvang om navorsing oor lae-latensie LLM-inferensie te bevorder - die onglansvolle loodgieterwerk wat besluit of "KI oombliklik voel" of "KI voel soos om vir roosterbrood te wag." NVIDIA merk ook op dat produksie-inferensiestelsels soos Dynamo op konsepte uit die laboratorium se werk put, insluitend DistServe.
Die storie leun sterk na "goeievoer" teenoor deurvoer - basies, deurvoer wat steeds latensieteikens bereik. Hulle beskryf ook die verdeling van voorafvul en dekodering oor verskillende GPU's om hulpbroninterferensie te verminder, wat nerdig is, ja, maar dis die soort nerdigheid wat verander hoe 'n produk voel.
🔗 Lees meer
🏗️ Hut 8 teken 245MW-kapasiteitsooreenkoms met Fluidstack as deel van multi-gigawatt-vennootskap met Anthropic
Hut 8 het 'n langtermynooreenkoms vir 245 MW kapasiteit by sy River Bend-kampus onderteken, en verhuur dit aan die KI-wolkfirma Fluidstack in 'n struktuur ter waarde van $7 miljard (met opsies wat dit baie hoër kan stoot). Anthropic word as die eindgebruiker verbind via die breër vennootskap - dit is kripto-mynbou-infrastruktuur wat weer in KI-spierkrag omskakel, net ... groter.
Daar is ook 'n reg van eerste aanbod vir tot 'n bykomende 1 GW by River Bend, plus finansieringsbetrokkenheid van groot banke en 'n Google-agtersteun. Eerlikwaar, die hele ding lees soos "KI wil krag en vaste eiendom hê - en dit wil hulle gister hê."
🔗 Lees meer