Apple vil angiveligt skifte Core ML ud med et nyt “Core AI”-framework i iOS 27
Et nyt rygte peger på, at Apple ved WWDC kan præsentere et moderniseret “Core AI”-framework, der erstatter Core ML i iOS 27. Målet: gøre det nemmere for udviklere at udnytte moderne AI-funktioner i apps—mere direkte, mere tidssvarende og (forhåbentlig) mindre “du skal lige selv bygge resten”.
Hvis det holder, er det en ret stor platform-ændring. Core ML har været fundamentet for machine learning på Apple-enheder i årevis, men AI-landskabet har ændret sig hurtigt med LLM’er, multimodale modeller og nye workflows. Et nyt framework kan være Apples måde at få Apple Intelligence, Siri og tredjeparts apps til at spille bedre sammen—på tværs af iPhone, iPadOS og macOS.
Hvorfor Core ML ikke længere lyder som nok
Core ML har i praksis været “kør en model effektivt on-device” med gode integrationer til Apple Silicon og Neural Engine. Men udviklerverdenen er skiftet fra klassiske ML-modeller til mere komplekse AI-stacks: prompt-baserede flows, værktøjsbrug (tool calling), retrieval, blanding af on-device og cloud, og ikke mindst et eksplosivt fokus på developer experience.
Et “Core AI”-framework kan derfor være et forsøg på at samle flere lag i én officiel Apple-løsning—altså noget der føles mere som en moderne AI-platform end et ML-lag. Det er også i tråd med den generelle bevægelse i iOS 27-rygter, hvor Apple vil gøre Apple Intelligence mere tilgængeligt for udviklere via nye API’er.
Hvad kan “Core AI” konkret indebære?
- En mere moderne API-overflade til AI-features, der passer bedre til Swift, Xcode og nutidens AI-workflows.
- Bedre håndtering af LLM-relaterede use cases (fx tekstgenerering, opsummering, klassifikation) uden at udviklere skal opfinde deres eget “mini-framework”.
- Strammere integration med Apple Intelligence, så apps kan bruge systemkapaciteter på en kontrolleret måde.
- Fokus på privacy: on-device AI, dataminimering og klare sandbox-regler—klassisk Apple, og det er nok også grunden til at Apple overhovedet kan tillade sig at være “sent” i AI-ræset.
Konsekvenser for udviklere: fra model-import til AI-funktioner
Hvis Apple reelt udfaser Core ML som “det primære”, bliver det afgørende, hvordan overgangen ser ud. Apple plejer ikke at rive gulvtæppet væk fra den ene dag til den anden, men de kan finde på at gøre det… pænt tydeligt, hvad fremtiden er.
Det interessante bliver især:
- Kompatibilitet: Kører eksisterende Core ML-modeller videre uændret, eller skal de migreres?
- Værktøjer: Kommer der nye Xcode-utilities, templates, eller bedre debug/benchmarking til on-device AI?
- Ydelse: Bedre udnyttelse af Neural Engine på nyere iPhone og Apple Silicon Macs kan gøre AI-features mere responsive—og dermed brugbare i hverdagen.
For almindelige brugere vil ændringen typisk være usynlig, men effekten kan være meget synlig: hurtigere Siri-hjælp, mere stabile Apple Intelligence-funktioner og smartere apps—uden at alt skal sendes til en server. Vil du følge flere iOS- og WWDC-nyheder, kan du løbende søge hos We❤️Apple.
AI er fedt—lige indtil din telefon dør kl. 14. Godt udstyr er stadig den mest undervurderede “feature”.
Se opladere til iPhone og iPad →Fri fragt over 499,- og dag-til-dag levering
Og ja: når AI-funktioner bliver tungere, bliver god strøm og tilbehør bare mere relevant. Hvis du er i iPhone-økosystemet, giver det også mening at kigge på iPhone-tilbehør og et solidt iPhone-cover—fordi den eneste ting værre end en langsom Siri er en Siri på en iPhone med knust skærm.
Min vurdering: Apple forsøger at “produktificere” AI for udviklere
Det mest interessante her er ikke navnet—Core AI kan i praksis være alt fra et rebrand til et reelt paradigmeskifte. Men timingen giver mening: Apple har brug for at gøre AI til en platform, ikke en feature. Hvis Apple Intelligence skal være mere end systemapps og demoer, skal tredjepartsudviklere kunne bygge på det uden at drukne i edge cases, performance-fælder og uklare privacy-regler.
Jeg forventer, at Apple vil læne sig hårdt op ad deres klassiske styrker: on-device AI, privatliv som standard, og dyb integration med Apple Silicon (Neural Engine). Samtidig vil de være nødt til at møde udviklere, hvor de er i 2026: med LLM-agtige workflows, bedre tooling i Xcode, og tydelige API-kontrakter. Hvis “Core AI” bliver den bro, kan iOS 27 blive et vendepunkt for AI på iPhone, iPad og Mac.
Hvad skal du holde øje med på WWDC?
- Nye developer API’er til Apple Intelligence og Siri-integration.
- Migration: officielle guides fra Core ML til Core AI (eller hvordan de sameksisterer).
- Performance og enhedskrav: hvilke iPhone-modeller får de bedste on-device AI-funktioner?
- Tooling: Xcode-forbedringer, profileringsværktøjer og mere “plug-and-play” ML/AI i Swift.
Kilde: 9to5Mac.








Dela: