AI muziek maken met Gemini en Lyria 3

Stel je voor: je wilt een persoonlijk nummer maken voor de verjaardag van je moeder. Iets over haar zelfgemaakte eten, de zomers als kind, de geur van haar keuken. Tot voor kort had je daarvoor een muzikant nodig, een studio, en een budget. Vanaf nu typ je een zin in Gemini en je hebt binnen dertig seconden een complete track - inclusief lyrics, zang, en cover art. Dat is precies wat Google deze week heeft uitgerold met Lyria 3, en het is de meest concrete stap die een groot techbedrijf tot nu toe heeft gezet richting AI muziek maken voor gewone mensen.
Wat Google heeft uitgerold
Lyria 3 is een generatief muziekmodel van Google DeepMind dat op basis van een tekstprompt automatisch een complete muziektrack genereert - inclusief lyrics, zang en cover art. Het model is beschikbaar in de Gemini-app vanaf 18 februari 2026 als bèta, voor gebruikers wereldwijd, zonder dat je muzikale kennis of extra software nodig hebt. Tracks zijn dertig seconden lang en direct deelbaar via een link.
Lyria 3 is op drie punten beter dan zijn voorganger: het genereert automatisch lyrics op basis van je prompt, je hebt meer controle over stijl, tempo en vocalen, en de tracks klinken realistischer en muzikaal complexer. Volgens Google is het resultaat een volledig geproduceerd nummer met zang en instrumenten - niet een minimalistische soundscape.
Wat hier direct opvalt: Google heeft bewust gekozen voor korte tracks. Dertig seconden is lang genoeg om te delen, te gebruiken als jingle, of als sfeermaker - maar kort genoeg om te voorkomen dat het platform concurreert met professionele muziekproductie. Dat is een slimme afbakening.
Hoe AI muziek maken werkt in Gemini
De interface is opzettelijk laagdrempelig gehouden. Je typt een beschrijving - genre, stemming, aanleiding, inside joke - en Gemini vertaalt dat naar een track. Je kunt ook een foto of video uploaden, waarna het model de sfeer analyseert en een bijpassend nummer maakt. Volgens Google Workspace zijn de tracks direct deelbaar via een link of te downloaden - geen exportstap, geen extra software.
Voorbeelden die Google zelf noemt: "een grappige R&B slow jam over een sok die zijn wederhelft zoekt" of "een afrobeat-track over mijn moeder en haar zelfgemaakte plantains." Dat zijn geen technische prompts - dat zijn gewone zinnen.
Wat je kunt aansturen:
- Genre en era: 80s synthpop, metal-rap fusion, klassieke jazz
- Tempo: uptempo, ballade, dansbaar
- Instrumenten: saxofoonsolo, distorted bassline
- Vocalen: luchtige sopraan, raspende rockzanger
- Taal: Engels, Duits, Spaans, Frans, Hindi, Japans, Koreaans, Portugees
Waarom gaat dit verder dan Suno of andere tools?
Lyria 3 onderscheidt zich niet primair door geluidskwaliteit, maar door distributie: het is ingebouwd in een platform dat al honderden miljoenen mensen dagelijks gebruiken. Dat maakt de drempel voor AI muziek maken fundamenteel lager dan bij bestaande tools als Suno - je hebt geen apart account, geen nieuwe app, geen abonnement nodig.
Er zijn al langer tools voor AI muziek maken - Suno is de bekendste. Maar Lyria 3 is anders om één reden: het zit gewoon in Gemini. Suno heeft een actieve gebruikersbasis, maar bereikt voornamelijk mensen die bewust op zoek zijn naar AI muziek maken. Gemini bereikt iedereen die al een Google-account heeft. Volgens TechCrunch is de integratie in de bestaande Gemini-app bewust gekozen om juist die drempel weg te nemen.
En de markt is er klaar voor. Volgens data van Business Research Insights groeit de wereldwijde markt voor AI-muziekgeneratoren van 1,98 miljard dollar in 2026 naar 18,04 miljard dollar in 2035 - een jaarlijkse groei van 28,5%. Dat is geen niche meer.
Wat betekent dit voor jouw bedrijf?
De meest voor de hand liggende toepassing is content. Sociale media, YouTube, podcasts, presentaties - overal is behoefte aan muziek die past bij de sfeer, maar die geen auteursrechtproblemen oplevert. Royalty-free muziek kopen of een licentie regelen kost tijd en geld. Een track genereren op basis van je merk of campagne duurt dertig seconden.
Denk aan een marketingteam dat voor elke campagne een uniek jingle maakt. Of een ondernemer die zijn podcast-intro personaliseert per aflevering. Of een retailer die in-store muziek afspeelt die past bij het seizoen en de doelgroep - gegenereerd op basis van een prompt. Volgens SentiSight is juist die toepassing in branded content en marketing één van de snelst groeiende segmenten binnen AI-muziek voor 2026.
Dit sluit aan bij een bredere beweging van AI-tools die directe creatieve output leveren. Net zoals Gemini steeds vaker wordt ingezet naast Claude en GPT voor tekstproductie, zie je nu hetzelfde gebeuren met audio. De vraag is niet meer "heb je een muzikant nodig?" maar "wanneer heb je een muzikant nodig?"
De kanttekeningen die erbij horen
Eerlijk? Er zijn ook vragen die Google nog niet volledig beantwoordt.
Dertig seconden is kort. Voor een echte jingle of intro heb je soms iets langer nodig. Of je wilt variaties kunnen exporteren. Dat zit er in de bèta nog niet in.
Dan is er de kwestie van transparantie. Alle tracks worden voorzien van een SynthID-watermerk - een digitale handtekening die aangeeft dat de muziek AI-gegenereerd is. Dat is een bewuste keuze van Google, en een verstandige. Maar het roept wel de vraag op: wat als je die track gebruikt in een commerciële context? Wat zijn de gebruiksrechten precies?
En dan de adoptiecijfers van AI-muziek in het algemeen. Volgens het IFPI Global Music Report (2024) was al 18% van de nieuw uitgebrachte tracks in 2023 gedeeltelijk AI-gegenereerd. Een groeiend deel van alle geüploade muziek kwalificeert inmiddels als AI-gegenereerd. Maar tegelijkertijd geven veel consumenten aan menselijk gecomponeerde muziek te prefereren voor emotionele impact. Dat is een spanning die niet verdwijnt doordat het model beter wordt.
Net zoals AI agents in productie pas echt waarde leveren als ze goed zijn ingebed in een werkproces, geldt dat ook voor AI-muziek: de technologie is er, maar de workflow eromheen bepaalt of het echt werkt. En als je nadenkt over hoe je zulke workflows bouwt, is het ook de moeite waard om te kijken naar no-code tools om AI workflows te automatiseren - dezelfde logica geldt voor creatieve pipelines.
Is dit al bruikbaar voor jouw bedrijf?
Dat hangt af van wat je nodig hebt. Voor persoonlijk gebruik - een verjaardagsnummer, een grappige track voor een teamvideo, een sfeermaker voor een presentatie - is dit nu al bruikbaar. De drempel is laag, het resultaat is verrassend goed.
Voor professionele marketing of commerciële inzet zijn er nog vragen over rechten en licenties die je eerst wilt beantwoorden. Bèta betekent ook: nog niet alles is uitgedacht.
Wat hier opvalt, is dat Google dit bewust positioneert als creatief gereedschap, niet als vervanging van muzikanten. "The goal of these tracks isn't to create a musical masterpiece," schrijft Google expliciet. Dat is een slimme framing - maar ook een eerlijke. Dertig seconden AI-muziek is geen album, het is een penseel.
De stand van zaken
- Lyria 3 is beschikbaar in de Gemini-app als bèta, vanaf 18 februari 2026, voor gebruikers wereldwijd
- Je hebt geen muzikale kennis nodig - een beschrijvende zin is genoeg om een track te genereren
- Tracks zijn dertig seconden, inclusief lyrics, zang, en cover art - direct deelbaar
- Alle tracks worden gemarkeerd met SynthID - een digitaal watermerk dat aangeeft dat het AI-gegenereerd is
- Commercieel gebruik vraagt om meer duidelijkheid over rechten - wacht op de definitieve versie voor grootschalige inzet
- De markt groeit snel: volgens Business Research Insights is AI-muziek in 2035 een markt van 18 miljard dollar
De echte verschuiving is niet dat AI muziek maakt. De verschuiving is dat AI muziek maken nu zo laagdrempelig is dat het geen aparte beslissing meer vereist. Je doet het gewoon, als onderdeel van iets anders. En dat is precies het moment waarop een technologie echt breed gaat.