from Lastige Gevallen in de Rede

Beste Rouwende

Zoals u weet heeft onze beminde over grootvader onlangs het tijdelijke verlaten ingewisseld voor het mogelijke altijd gezellig klaverjassen in goed gezelschap, kaartspelers gek op verliezen want onze Gerardus Bastiaansz Gruwel kon bij leven in ieder geval slecht tegen zijn verlies.

Uw roosters en leven daar in kennende bent u zo als wij zijn, overvolle agenda's gevuld met theater bezoeken, werk, zaken lunches, vakanties naar exotische of ordinaire bestemmingen, baby borrels, huis opwarm festijnen, feesten en partijen, cultureel werk, klussen, picknicks in park of bos en dergelijke. Het leek ons daarom beter om voor zijn ter aarde stelling gebruik te maken van de data planner.

Zou u zo vriendelijk willen zijn om daarop aan te geven op welke dag of dagen u aanwezig kunt zijn voor het afscheid van onze lieve over grootvader Bas, hij die ons toch nog onverwacht en snel verliet met amper 109 jaar op zijn tikker.

In samenspraak met de geherschikte voorgevormde kerk zijn de volgende zeven data en tijden voor ons beschikbaar.

[ ] 27 01 om 15:30 – 17:30 [ ] 28 01 om 11:05 – 13:05 [ ] 06 02 om 14:20 – 15:45 [ ] 08 02 om 13:15 – 15:15 [ ] 13 02 om 19:00 – 20:30 [ ] 17 02 om 15:30 – 17:15 [ ] 20 02 om 14:15 – 16:30

Wij hopen u dan allen te zien verschijnen voor het grote afscheid één dezer dagen.

 
Lees verder...

from Roscoe's Quick Notes

IU Women tonight

GO HOOSIERS!

Tonight I'll be cheering on my Indiana University Women's Basketball Team when they travel to Columbus, Ohio, to play against the number 12th Nationally Ranked Ohio State Buckeyes.

And the adventure continues.

 
Read more...

from drpontus

I princip drar jag tre slutsatser på svängningen inom Big Tech, där det nu plötsligt är ”officiellt hippt” att tvivla på LLM-spåret.

Teknik: avtagande avkastning på ”större modell, mer data, mer GPU”. Det vi kallar “AI-tjänster” blir inte bättre för varje dag, snarare tvärtom pga ”scaling wall” samt tak för tillgänglig data. Nu är nätet skrapat, och framöver får vi dessutom en ökande andel LLM-genererat innehåll, vilket kommer sänka kvaliteten på den data som nya modeller bygger på.

Ekonomi: värdet idag är ofta lokalt och taktiskt  –  inte den breda, ”Internet-nivå” som utlovades av techbolagen initialt. (”Feel the AGI”, som Sam Altman sa. Idag hävdar han att begreppet ”AGI” inte är användbart.)

Samhälle: problemet är inte bara vad LLM:er kan, utan hur de levereras — som slutna tjänster, inte som öppen infrastruktur.

Vi närmar oss gränserna för fysik, data och ekonomi samtidigt. Det blir en stor utmaning för övervärderade bolag. Därför pratar man ju nu om bubbla. Märk väl: precis som med IT-kraschen 2001/2002 så är det en ekonomisk bubbla. Transformerteknologin kommer att finnas tillgänglig, fast antagligen inte på det viset som OpenAI, Google och de andra techjättarna har gjort gällande. Det finns så klart också en stor trötthet på hypen  – och det påverkar också investeringsvilja, intresse och retorik.

Vissa tror att LLM:er bara är en övergångsteknik som snart ersätts av mer strukturerade system; andra tror att LLM-familjen fortsatt kommer vara ett centralt gränssnitt, men att värdet sitter i hur den kopplas till annan AI, data och verktyg. Den som lever får se.

Att kalla ChatGPT, Claude, Grok, Gemini etc. för ”verktyg” eller ”infrastruktur” är dock gravt missvisande både i ekonomisk och semantisk mening. Låt oss börja med begreppet verktyg:

Verktyg eller tjänst?

LLM:erna säljs som ”verktyg”, men är i själva verket ”tjänster”. Här ligger en enormt viktig distinktion. Många tror att de ”skapar” något med hjälp av AI. Det gör de så klart inte: de beställer bild/text/film av en tjänst. Användarna sitter helt i händerna på privata leverantören.

Det är en maktfråga.

Ett verktyg är något du som användare äger eller kontrollerar: en hammare, en kamera, ett textredigeringsprogram. Du kan använda det offline. Du kan uppgradera när du vill. Du kan ta ansvar för resultatet, eftersom beteendet är stabilt och förutsägbart.

En tjänst fungerar i princip tvärtom. Den förändras kontinuerligt, utan ditt medgivande. Den kan försämras, begränsas, behäftas med ny prismodell eller dras tillbaka helt. Den kan börja servera annonser. Den kan börja prioritera andra kundgrupper än dig. Den kan få nya regler för vad som är “tillåten användning”. Och när något går fel kan leverantören alltid hänvisa till att du har “använt tjänsten fel”.

När LLM:er marknadsförs som verktyg skapas en illusion av användarmakt som inte existerar.

Du skapar inte med en LLM på samma sätt som du skapar med en kamera eller ett ritprogram. Du lägger en beställning hos en svart låda, vars inre logik, träningsdata, säkerhetsfilter, optimeringsmål och affärsintressen är helt utanför din kontroll. Resultatet är inte ditt hantverk – det är ett levererat svar från en privat aktör.

Det betyder inte att tekniken är värdelös. Men det betyder att relationen mellan användare och leverantör är fundamentalt asymmetrisk.

I praktiken sitter användaren i händerna på leverantören på minst fem sätt: 1. Teknisk kontroll – modellen ändras löpande, ibland drastiskt, utan transparens. 2. Affärskontroll – prissättning, kvoter, annonser och abonnemangsvillkor kan ändras över en natt. 3. Juridisk kontroll – användningsregler och ansvarsförskjutning skrivs ensidigt av leverantören. 4. Epistemisk kontroll – du kan inte verifiera hur eller varför ett svar genereras. 5. Produktkontroll – tjänsten kan stängas ner, degraderas eller regionbegränsas när som helst.

Detta är alltså hur en tjänst beter sig. Inte hur ett verktyg beter sig.

Och i OpenAIs fall blir det extra tydligt hur skör hela metaforen är. Deras tjänst har existerat i ungefär tre år. Det är ingenting i infrastrukturella termer. Det går inte att jämföra med internet, elnätet eller mobilnätet, som byggts upp under decennier, reglerats, standardiserats och distribuerats mellan många aktörer.

Att redan nu tala om “AI som ett allmänt verktyg” eller “grundläggande infrastruktur” är att förväxla hype med mognad.

Det vi har i dag är ett fåtal privata tjänster med extrem koncentration av makt, minimal insyn och snabbt skiftande affärsmodeller. Att kalla dem verktyg gör dem oförtjänt stabila, neutrala och oskyldiga i människors föreställningsvärld.

Språket vi använder formar hur vi förstår ansvar, makt och beroende.

Så länge vi kallar LLM-baserade tjänster för verktyg kommer vi att fortsätta låtsas att användaren har kontroll. Det har hen inte.

Infrastruktur?

Internet bygger på öppna protokoll (TCP/IP, HTTP, SMTP …). Ingen äger ”internet” som infrastruktur. Likaså mobilvärlden vilar på standardiserade nät (GSM, LTE, 5G) och hårdvara där flera aktörer kan konkurrera på varje lager. Tack vare reglering och standardisering (som en kommentar på det tröttsamma feltänket att ”reglering hindrar innovation”).

Vi som konsumenter kan, i princip, byta: webbläsare, operatör, hårdvara och till och med OS och ändå vara på samma nät. Det innebär interoperabilitet, mångfald av leverantörer och stabilitet (protokoll överlever vanligtvis bolag). Google, Apple och Microsoft är gamla i gamet, men har inte funnits alls lika länge som infrastrukturen för deras produkter.

LLM:er i praktiken idag är tränade på hemliga dataset, med hemliga metoder, hostade på leverantörens egna moln (OpenAI, Google, Anthropic m.fl.) och endast nåbara via API:er och appar där hela stacken ägs, drivs och kan ändras ensidigt av leverantören. Dvs, de är extremt proprietära, vilket leder till lock-in och “kunskapsinfrastruktur som privat produkt”. Därav den stora faran då t.ex. Google går in så aggressivt mot lärandesektorn med Gemini och NotebookLM och försöker bli den centrala kontrollerande noden i vetenskaplig kunskapsproduktion och lärande.

Så hur blir det då?

Ponera att techbolagen och deras “AI”-tjänster förminskas/försvinner. Då säger historien att teknologin (transformer-baserade LLM:er i det här fallet) blir en öppen arkitektur, snarare än privata tjänster. Då skulle de kunna hamna i samma kategori som databas-motorer eller TCP/IP: ett grundlager som nästan ingen ”ser”, men som allt bygger på. Då skulle det kunna handla om:

  • Öppna, standardiserade protokoll för hur modeller nås och används
  • Flera kompatibla implementationer (olika modeller, olika optimeringar)
  • En tydlig separation mellan modell, hårdvara, data och applikation Transformern blir då mer som ”standardiserad maskinell språklogik” än en företagsprodukt. De stora skillnaderna mot idag skulle vara: färre monolitiska chatt-tjänster, däremot fler osynliga LLM-komponenter inbäddade i operativsystem, databaser, utvecklingsmiljöer, webbläsare och domänspecifika system. Om/när dagens LLM-jättar kollapsar som aktörer, så försvinner inte teknologin ;  den ”degraderas” från centraliserad tjänst till allmän kunskap. Det här mönstret ser man om och om igen i teknikhistorien:
  • IBM, DEC, Sun föll eller krympte, men idéerna de utvecklade (timesharing, RISC, UNIX-filosofin) lever kvar i Linux och andra moderna operativsystem.
  • Tidiga nät- och telekomjättar förlorade till slut sin dominans, men protokollen standardiserades och flyttade in i öppna organ som W3C.
  • Många proprietära databaser tappade mark, men SQL som idé standardiserades och frodas i öppna implementationer.

Slutet på en era

Vilda västern-eran når sitt slut och vi får mer vikt på standarder och “governance”. Tekniker som överlevt sina första generation (internet, elnät, järnväg, flyg) har alltid behövt standardiseringsorgan, normer och ibland mellanstatliga avtal för att fungera långsiktigt. Om LLM:er blir infrastruktur i samma mening kommer vi förr eller senare landa i öppna standarder för modellformat, träning, certifiering/reglering av vissa användningsområden (likt luftfart, läkemedel), samt separation mellan den som definierar standard, den som implementerar och den som driver tjänsterna.

 
Read more...

from Emily Simmerman

Auspicious hour

This night swims with ghosts And yet it is already morning. This auspicious hour before the dawn feels ripe and pregnant for thieves and murderers witches — the kind with warts and I am no witch. Thief, you are you steal into my dreams Night stalker Carrying with you all your baggage of the past and the future, describe to me your wedding meal how it went smoothly down the gullet the steak, the cupcake the flesh around my fingers ragged for something ugly churns beneath the white, smooth snow seeping through in places. Let's throw snowballs at it Hoping it won't come back again, mold and mushroom beneath new layers of plaster painted stylishly. There is no green growth for months now, I've stared at the stump. I've had operations and grafts faith healers and three ring circus leaders have chanted nonsense (expensive nonsense) over this brown, twisted place where I used to grow new things. I am sad and scared that nothing new will grow again that my soil is depleted and depleting How long have I been in this same terra cotta swaddling? There is morning light coming through black, chattering branches A blue glow that smiles and says, “And now you'll do it all over again.” I'm already living all my worst fears of motherhood without ever actually giving birth.

 
Read more...

from 💚

Our Father Who art in heaven Hallowed be Thy name Thy Kingdom come Thy will be done on Earth as it is in heaven Give us this day our daily Bread And forgive us our trespasses As we forgive those who trespass against us And lead us not into temptation But deliver us from evil

Amen

Jesus is Lord! Come Lord Jesus!

Come Lord Jesus! Christ is Lord!

 
Read more...

from 💚

Heroes and Their Grain

Giving thanks for recompense And orders of ovation Sipping wild leaves and hanging still in Fortis by the fire, a beckon of apostasy And using little days of Swindon Maximizing strength and running- places near and North Shining to a sale Ripping into water Making great amends Using heat for war- when matches near Proposed to ten more leaves To carbonize our year In a place five times the week Another year for Carney- Year of the invincible fight When truth supposes a way- to save us from the darkness In any way a prayer For forgiveness and works in the world Accepting prayers in judgement time While Donald reads the fax A spirit machine And a tripartite statement What comes of news is war And the Senate even supposed Whatever Norway chooses Is a risk to the untold We offer every golden rule To sow for prizes heard In remorse and about this fear That rain may fall on Winter Sending mosquito gifts For the first in quarter time A witness calls- Seeking better insurance Who treasures the ugly prize For picking up on pastures And then it snows- Affording to said Witness The cards under the table Are a long walk to Don The fallacy of gamesman days Besting those who dare To speak for what is fortune And hanging left to dry- the venerable year A palatial place of hell But in that garden we do grow With ecstasy and a fever And when our greens are ready We will send some in the mail About face: I am a drifter Wallowing in Canada Post My favourite type of office And liking your remain If it is fallen And darkest night The weary hear a beep For Jezebel the accountant Standing up for you, the money prophet host For which there is return Upon this hallowed ground And shunning court with hades While men pick up the news- Rome is here and ready While peace is months to be- No single war- can escape the Senate’s will Marks and calls for escape From Wildwood and its pen- the dealers of Upham calling To smear the great assumption That Canada isn’t ready Simple years and native wild- species to the garden Accepted by Man’s plate And feeding your return:

Gracious Canada, Lean into beginning As much as peace to happen The days ahead will call Go, Row alone And sacrifice the news For dirty years of Able And forceps to the new Raking dawn, Sin as war In these things we watch And the hero is the same, Pretending men of war- Will call us to the room Sight unsigned Proxy to this witness Failhead for the dowry And what is done by rote- the insubstantial A year’s quest by the page So this worry will abide And untoward thy name By pressure rank Sealing days of ore And often then We keep the Water clean Heaven’s rouse And home.

 
Read more...

from Lastige Gevallen in de Rede

Mensen spottende vogels gesignaleerd.

Op twee locaties in Oost Smægmå nabij het diepe dal in de vallei zijn een paar vogels gezien die mensen spotten. Het gaat om vrij onopvallende figuren meestal zittend op hardhouten bankjes in het beschermd milieu park. De vogels gaan in de nabijheid van hun mens opvallend aanwezig zitten zijn, alwaar ze zich duidelijk amuseren rondom hun doelwit voor vermaak en of verwondering, ondanks het gebrek aan noodzaak voor deze aanwezigheid. Als de eenmaal gespotte lieden proberen te ontkomen aan de blikken van de vogels en bijbehorend spot gedrag dan maken de vogels gebruik van de vogel vluchtige transport voordelen aanwezig, lichtvoetige tred, en kleine gestalte om maar niks te missen van al wat de persoon daar doet om aan het vliedende spot licht te ontkomen, ze blijven op deze wijze hardnekkig volhouden in volgen met spotten, in ieder geval tot ze de interesse verliezen en dan opvliegen naar een plek waar ze niet worden gezien terwijl ze vast wel iets spotten maar dan zonder dat iemand daar erg in heeft.

STER(2) De Vereniging voor Mensen die niet Bespot willen worden heeft ook deze keer over dit euvel zijn beklag gedaan bij de instanties hun ter wille. Deze hebben aangegeven de kwestie te zullen behandelen bij de eerst volgende vergadering.

 
Lees verder...

from Lastige Gevallen in de Rede

Uitgaand bericht tevens inkomend

Albert H. de jongeman die gisteren op de hoofdstraat met een mes in stak op willekeurige voorbijgangers was een werknemer van de lokale megalomane super geweldig markt, de AU. Het openbare weg incident bleek enkel te gaan om een steekproef in opdracht van de winkel en was geen terreur aanslag. “Het was een kleine ingreep nou eenmaal nodig om het voortbestaan van deze zaak te garanderen.” aldus een verklaring van de woordvoerder van het “Samen op dezelfde Snelweg” management team verantwoordelijk voor het in goede banen leiden en helpen uitvoeren van de nieuwe landelijk ingevoerde maatregelen aangaande het verdoezelen van de ware betekenis van het woord, met name bepaalde uitdrukkingen veelvuldig gebezigd door het bedrijfsleven, dezelfde woorden met andere betekenis eerder eens op posities elders ingezet. Er was goede rede voor en daarom is er in dit ene als ook vergelijkbare gevallen geen rede voor ongerustheid. De daarvoor betaald krijgende woord voerende zei verder “Steekproeven zijn sinds we duizenden jaren geleden begonnen met ondernemen een noodzakelijk goed, Het is simpelweg een waarschuwing opdat de klant, gebruiker van ons spul, geen misbruik maakt van alles wat er is dankzij ons, zoals bijvoorbeeld de hoofdstraat met zijn winkels. Wij staken en steken er iedere werkdag veel energie in en dat kan alleen uit als u dat ook doet en blijft doen. Dat is het hele punt, het mes in onze handen snijdt aan twee kanten, dus ook bij u.”

“De slachtoffers van de steekproef maken het naar omstandigheden goed” aldus de begrafenis ondernemer.

 
Lees verder...

from drpontus

Generativ AI säljs in som lösningen på allt från sjukvård till skolkris — men används i praktiken för att massproducera meningslöshet. Bakom löftena om innovation döljer sig en teknologi som exploaterar arbetare, utarmar kulturen, dränerar språket och centraliserar makt. Ändå vågar få säga emot — för ingen vill vara den som står i vägen för ”framtiden”. Men just därför måste vi börja ifrågasätta vad det är vi håller på att bygga. Och för vems skull.

Generativ artificiell intelligens (genAI) — det senaste begreppet inom det mer generella AI-fältet — lyfts fram som en revolutionerande teknologi med enorm potential. De flesta associerar i praktiken begreppet med tjänster som ChatGPT, DeepSeek, Claude, DALL·E och Midjourney — tjänster som kan “skapa” text, bilder och musik med en precision som för bara några år sedan var otänkbar. Även en rad andra förmågor tillskrivs genAI och berättar historien om en teknik-driven samhällsförbättrande revolution.

Halo-effekten, även kallad Thorndike-effekten, är ett psykologiskt fenomen där vår helhetsbedömning av något påverkas oproportionerligt mycket av en enda positiv egenskap eller association. Termen myntades av psykologen Edward Thorndike i början av 1900-talet, efter att han observerat att soldaters fysiska utseende påverkade hur deras övriga egenskaper bedömdes av officerare. Om en soldat uppfattades som attraktiv eller vältränad, ansågs han också vara mer intelligent, kompetent och disciplinerad — trots att det inte fanns några belägg för det.

Inom teknikområdet uppstår halo-effekten ofta när en ny innovation associeras med framtid, förbättring, intelligens eller förlösande potential — vilket gör att vi tenderar att överse med dess brister eller ignorera dess negativa konsekvenser. Generativ AI omges av en kraftfull halo-effekt. GenAI lyfts fram som nyckeln till framtidens sjukvård, skräddarsydd undervisning, effektiv välfärd och vetenskapliga genombrott. Eftersom tekniken potentiellt kan förbättra sjukvård, undervisning och vetenskap — antas det underförstått att alla tillämpningar är värdefulla. Men i praktiken används tekniken i första hand till att massproducera texter, bilder och kod som ofta är snabb och billig — men sällan meningsfull eller värdeskapande i längden.

Halo-effekten i kombination med en allmän sense of urgency — att vi alla snabbt måste anamma genAI för att inte “förlora AI-racet” eller “halka efter” — gör att kritik blir svår. Den som ifrågasätter tekniken riskerar att framstå som bakåtsträvande, teknikfientlig eller likgiltig inför samhällets behov. Och just därför krävs ett kritiskt förhållningssätt.

För under den glänsande fernissan finns en baksida som sällan diskuteras, en verklighet där ekologiska, sociala och ekonomiska hållbarhetsproblem samverkar med geopolitiska och kulturella frågor — och förvärras i skuggan av en i dagsläget okritisk teknikutveckling.

Clarote & AI4Media / Better Images of AI / Labour/Resources / CC-BY 4.0

Ekonomisk ohållbarhet — en attack på “kreativa” yrken

Författare, konstnärer, fotografer och musiker har under lång tid byggt sina yrken på kreativitet och upphovsrätt. Men generativ AI utmanar detta fundament genom att träna på data insamlad från internet — oftast helt utan tillstånd eller ersättning till de ursprungliga skaparna som nu ser sina verk bli råmaterial i AI-träning. Generativa AI-tjänster baserade på språkmodeller och GPT-arkitekturen kan nu generera konst, musik och texter som imiterar existerande kreatörers stilar, vilket ytterligare väcker frågor om upphovsrätt och rättvis ersättning.

Lagstiftningen släpar efter, och i många länder är det fortfarande i en juridisk gråzon att använda kreatörers verk för AI-träning utan samtycke. Det finns många slags metoder för text- och datautvinning som innebär att material samlas in (“skrapas”) från internet av mjukvarurobotar. För författare, konstnärer och kreatörer innebär detta att deras verk exploateras utan att de får någon kompensation — en utveckling som hotar hela den kreativa sektorn.

Den kulturella skadan är redan omfattande. Redan år 2023 uppskattades det att AI-tjänster genererat fler bilder än vad som fotograferats under hela mänsklighetens historia. Mer än hälften av internettrafiken utgörs i dag av robotar, och en växande andel av allt innehåll online bär spår av att vara maskinellt genererat. Resultatet är en medie- och informationsmiljö som snabbt förlorar sin mänskliga kvalitet, där originalitet ersätts av variationer på statistiska sannolikheter.

Utvecklingen riskerar att avskräcka en ny generation kreatörer. Varför investera tid, pengar och liv i att bli författare, illustratör eller fotograf, om ens verk utan samtycke kan skrapas, användas, och sedan imiteras av en AI-modell som snabbt tar över ens marknad? I stället för att stimulera kreativitet, bygger generativ AI en industri där den som matar in en prompt — en kort textbeskrivning — får resultatet, medan hela den visuella, språkliga eller musikaliska skapandeprocessen outsourcas till en kommersiell statistisk prediktionsmaskin. Den “kreativa” insatsen reduceras till beställning, och vi får en alltmer AI-fierad mediaverklighet — präglad av likriktning, reproduktion och kommersiell optimering.

I förlängningen riskerar detta att leda till en form av kulturell modellkollaps: när AI-modeller i allt högre grad tränas på sitt eget, redan genererade material, utarmas kvaliteten, variationen och djupet. Samhället står då inte bara inför en ekonomisk och rättslig kris i den kreativa sektorn — utan inför en mer grundläggande fråga: hur bevarar vi mänsklig kultur, språk och uttryckskraft i en värld där maskinen tillåts härma människan utan gränser, ansvar eller motstånd?

🔍 Om du är författare kan du själv undersöka om din text är skrapad och använd i Metas senaste modeller. Du kan också använda tjänsten haveibeentrained.com för att undersöka om dina bilder använts som träningsdata.

Social ohållbarhet — det dolda arbetet bakom AI

För att de generativa AI-modellerna ska fungera krävs å andra sidan en stor mängd mänskligt arbete för att kurera den insamlade datan. Bakom varje välformulerad text och varje genererad bild döljer sig tusentals timmars lågavlönat arbete. I det tysta har en global skuggarbetsmarknad vuxit fram, där människor i länder som Kenya, Filippinerna och Venezuela manuellt märker upp, städar och modererar innehåll i den brokiga skrapade datan. Lönerna är låga, skyddsnäten obefintliga, och det psykologiska priset för dem som dagligen tvingas exponeras för våldsamt eller exploaterande material är högt. AI-industrins framgångar vilar bokstavligen på dessa människors skuldror, men arbetet i dessa ”digitala sweatshops” förblir osynlig för de flesta slutanvändare.

Innehållsmoderatorer (“content moderators”, “clickworkers”, “taggers”), som arbetar med att rensa bort olämpligt material från sociala medier och AI-system, har rapporterat om PTSD, depression och ångest till följd av sitt arbete. Techbolagen, som skördar miljardvinster, ger ofta minimalt stöd till dessa arbetare.

📕 Boken “Feeding the Machine” (Cant et al., 2024) går grundligt igenom problemen med det osynliga arbetet och lidandet hos innehållsmoderatorer.

This image shows a silicon mono-crystal on a neutral background, a crucial component of AI manufacture: a block like this would be sliced into 12 inch diameter wafers to form the base of CPUs. Picturing silicon visually asserts AI’s materiality and illustrates that the ‘mining’ of AI is not purely metaphorical (e.g. data mining) but also a literal, material undertaking. Responsible for sustaining innovation within ‘Silicon valley’/wider tech, silicon enables the packing of greater computational/processing power into a single surface allowing for more efficient data movement, the co-location of memory and processing and parallelisation of function, necessary for machine learning. Catherine Breslin, the photographer, operates within the AI supply-chain first-hand in her work as a machine-learning voice engineer and consultant, previously involved in building Amazon Alexa.

Ekologisk ohållbarhet — en energislukande industri

Utvecklingen och driften av storskaliga AI-modeller kräver stora mängder energi och vatten. För att träna en enda modell, som OpenAIs GPT-4, krävs elförbrukning motsvarande tusentals hushålls årliga energibehov. De datacenter som driver AI-systemen är energislukande kolosser, där processorkraften genererar en enorm värme som i sin tur kräver kylning — en process som förbrukar stora mängder färskvatten. Vattenbrist är redan ett akut problem i många delar av världen, men AI-industrins vattenförbrukning är dåligt dokumenterad, vilket gör det svårt att bedöma den faktiska påverkan.

Därtill kommer koldioxidutsläpp. Träningen av storskaliga AI-modeller (“foundation models”) kan producera lika mycket utsläpp som flera långdistansflygningar, och även den dagliga användningen av AI kräver betydande energi. Detta är en aspekt som ofta glöms bort när man pratar om AI:s klimatpåverkan — det handlar inte bara om träning, utan också om varje enskild gång någon beställer en text eller bild. Den generativa AI:ns miljöpåverkan utgör ett växande problem som vi ännu inte fullt ut förstår konsekvenserna av. Problemet är att det är svårt att få ut korrekt data kring energi, koldioxid och vattenåtgång. Detta faktum gör att det går att nedprioritera frågan, vilket i förlängningen gör att så länge techbolagen lyckas undanhålla dessa siffror så adresseras inte miljöproblemen.

📕 Boken “Atlas of AI” av Kate Crawford (2021) beskriver den ekologiskt miljömässiga baksidan av AI.

Four people are outside on a pavement in front of some railings and lush green foliage. It is a relaxed scene and appears to be viewed through a camera with ‘time log information positioned in the top left and right corners respectively.. One sits on a bench and has an identification box around her bag and head. In original version of this image, identifying features including female and caucasian were displayed, but it has been left blank for use in different languages. Three men are in the centre-right of the image. On the original image one has an identification box with an ID number and identifying features listed as male, black, hoodie. Identifiers can be layered on to this image to show the kind of characteristics biometric systems might identify.

Geopolitisk osäkerhet — AI som resiliens och infrastruktur

Hypen kring AI har börjat påverka den globala geopolitiken på ett sätt som tidigare teknologiskiften inte gjort på samma snabba sätt. Ett allvarligt problem är Europas och Sveriges ökande beroende av amerikanska techjättar för AI-tjänster. Företag som OpenAI, Google och Meta dominerar utvecklingen av generativ AI, och deras modeller används i allt större utsträckning inom både offentlig förvaltning och näringsliv. Detta skapar en sårbarhet i en värld där geopolitiska konflikter och ekonomiska sanktioner kan förändra spelplanen snabbt.

Om AI betraktas som en central del av framtidens infrastruktur — vilket den i allt högre grad blir — måste vi fråga oss vilka risker som följer av att en så viktig teknologi kontrolleras av enskilda företag i exempelvis USA. I ett framtida krisläge skulle Sverige och EU kunna hamna i en situation där tillgången till AI-tjänster begränsas eller påverkas av beslut fattade utanför vår kontroll. Det gör att vi måste se AI inte bara som en kommersiell innovation, utan som en fråga om digital suveränitet och resiliens.

📕 Carl Heath har skrivit en artikel om digital resiliens utifrån ett svenskt perspektiv (2025).

Språklig påverkan — Sveriges språkpalett

Ett underskattat men långsiktigt problem med generativ AI är dess påverkan på språkanvändning. De största språkmodellerna är optimerade för amerikansk engelska och har ett implicit anglocentriskt perspektiv som riskerar att påverka hur svenskan används och utvecklas. AI blir i allt högre grad en del av vårt dagliga språkbruk — i textgenerering, kundservice, utbildning och offentliga sammanhang. Om den svenska AI-utvecklingen släpar efter och vi blir beroende av anglosaxiska modeller, kan det leda till en urvattning av svenskan både som kommunikativt och kulturellt verktyg.

Detta handlar alltså inte första hand om korrekt syntax och grammatik, utan om språkets roll som tankemönster och identitetsbärare. Språk formar hur vi ser på världen, och om AI domineras av en viss kulturell kontext riskerar det att förändra hur vi uttrycker oss och vilka perspektiv vi tar med oss in i våra resonemang.

Särskilt allvarligt är detta för Sveriges minoritetsspråk, såsom samiska, meänkieli och romani chib, som redan kämpar för sin överlevnad. Dessa språk är obefintligt representerade i dagens AI-modeller och riskerar att ytterligare marginaliseras om inte särskilda insatser görs för att inkludera dem i en nationell språkmodellsutveckling.

Om vi ser AI som språkmodellering och en del av vårt samhälles digitala operativsystem måste vi också förstå vikten av att bevara språklig mångfald och säkerställa att framtida AI-modeller stärker, snarare än underminerar, våra egna språkliga och kulturella identiteter.

AI och informationspåverkan — en ny arena för manipulation

En växande risk med generativ AI är dess sårbarhet för informationspåverkan och manipulation från antagonistiska aktörer. Utländska propaganda- och desinformationsnätverk har redan börjat infiltrera språkmodeller genom en strategi som kallas ”LLM grooming”. Genom att massproducera falska nyheter och använda sökmotoroptimering lyckas dessa aktörer få AI-modeller att upprepa och legitimera främmande makts narrativ, även i fall där modellerna försöker motbevisa dem. Ryska Pravda driver 50+ domäner som producerade 3,6 miljoner skräddarsydda artiklar bara under 2024. Dessa artiklar skrapas som innehåll och flyter sedan fritt in i chattbotar och AI-genererade nyhetsartiklar.

Detta är en allvarlig säkerhetsfråga för Sverige och Europa. Om vi förlitar oss på AI-modeller som tränats på data manipulerad av främmande makter, riskerar vi att skapa digitala ekosystem där desinformation sprids på ett sätt som är svårt att upptäcka och motverka. Det gör det brådskande att utveckla inhemska språkmodeller med robusta mekanismer för att identifiera och motstå informationspåverkan. Sverige måste ta fram processer för att testa och granska AI-modeller som används i samhällskritiska funktioner, och samtidigt investera i öppna, transparenta språkmodeller för det svenska språket och dess minoritetsspråk.

Juridiken — rättslöshet som affärsmodell?

Generativ AI har gjort det möjligt för teknikföretag att kliva rakt in i medie-, kultur- och underhållningssektorerna, utan att ta det ansvar som traditionella aktörer i dessa branscher länge burit. När AI-modeller producerar text, bild och video blir teknikbolagen inte bara plattformsleverantörer — de blir i praktiken publicister. Men till skillnad från förlag, nyhetsredaktioner eller TV-kanaler har dessa aktörer inget utgivaransvar. Detta är ett känt mönster från sociala media-bolagen. Det är en systemisk frikoppling mellan innehåll och ansvar, och den får redan allvarliga konsekvenser.

I dag används generativa AI-tjänster för att producera förtal, deepfake-porr, falska nyheter och utpressningsmaterial. Fall där AI genererat barnpornografiskt innehåll har avslöjats, liksom händelser där människor oskyldigt pekats ut som mördare av språkmodeller. I inget av dessa fall har företagen bakom modellerna burit något rättsligt ansvar. Att distribuera övergreppsbilder via zip-filer är (med rätta) olagligt — men att träna och distribuera en AI-modell som möjliggör samma handlingar möts ofta med axelryckning och en länk till ett “användaravtal”.

Samtidigt är det i praktiken svårt för användare att skydda sig. Initiativ som haveibeentrained.com har möjliggjort att över 1,5 miljarder bilder optats ut från träning — men dessa val har ignorerats av bolag som OpenAI och Stability AI i senare versioner av DALL·E 3 och Flux. Samma gäller text: databasen Books3, som bland annat använts av DeepSeek och OpenAI, innehåller upphovsrättsskyddade verk från tusentals författare utan tillstånd. The Atlantics söktjänst för att hjälpa författare hitta sina egna verk i databasen hjälper föga, när ingen mekanism för ersättning eller opt-out finns.

ℹ️ The Authors’ Guild har en informationssida med tips på vad du som författare kan vidta för åtgärder om dina verk använts utan tillåtelse.

I praktiken har vi fått en situation där kostnaderna — juridiska, sociala och samhälleliga — skjuts över på användare, kreatörer, offer och myndigheter, medan vinsterna koncentreras hos ett fåtal globala aktörer. Om vi menar allvar med att AI ska användas för samhällsnytta kan vi inte fortsätta tolerera ett ekosystem där ansvarsfrihet är inbyggd i affärsmodellen.

Vem tjänar på AI?

Den avgörande frågan är: vem gynnas egentligen av nuvarande genAI-utveckling? Techbolagen bakom generativ AI gör enorma vinster, medan samhällskostnaderna fördelas på resten av världen. AI-industrin slukar energi, utarmar naturresurser, exploaterar arbetskraft i den globala södern, skiftar geopolitisk maktbalans och hotar framtiden för kreativa yrken. Samtidigt är transparensen från dessa företag nästintill obefintlig.

Varför springer vi?

Vem tjänar egentligen på dagens AI? Det är den centrala frågan vi måste ställa oss. Vi har tydligen gått med på att delta i ett “AI-race” där målet verkar vara snabbare, större och mer integrerad teknologi — men till vilken nytta, och för vem? Har vi ens valt den här vägen, eller har vi bara accepterat att den är oundviklig (“adapt or die”)?

Vi har en tendens att alltid se effektivisering och teknologisk innovation som synonymt med framsteg för samhället, men är det verkligen så? Innovation kan vara en nödvändig pusselbit, men den är inte tillräcklig i sig själv. Vad händer när tempot ökar, men riktningen förblir oklar? Generativ AI lovar mycket, men skapar också nya sårbarheter, nya beroenden och nya former av exploatering. Istället för att fråga hur vi kan springa snabbare borde vi kanske fråga varför vi springer överhuvudtaget — och vart denna diffusa språngmarsch egentligen skall leda.

En annan väg — AI för samhällsnytta

Om man studerar teknologisk utveckling historiskt, så gynnar den initialt och primärt en ekonomisk elit snarare än samhället i stort. Det är först när policy och regelverk modererar och distribuerar effekten av den nya teknologin som den börjar gynna resten av samhället. Detta glöms ofta bort när det målas med breda penslar om exempelvis förra sekelskiftets industrialisering. Det var först då arbetarna organiserade sig och lagar om arbetstid och minimilön etc. kom på plats som de positiva effekter som vi idag förknippar med industrialiseringen infann sig för samhället i stort. Ångmaskinen i sig skapade inte lagstadgade semesterdagar, så att säga. Fackföreningar, politik och lagar var viktiga styrmedel för att förflytta teknologin till det vi idag förknippar med industrialismens innovation (om vi med innovation verkligen menar värde för samhället). Var finns dessa mekanismer i dagens AI-race?

Det är alltså möjligt att dra en annan slutsats än de ensidigt utopiska AI-förespråkare som hävdar att vi måste delta i “AI-racet” för att inte bli omsprungna. Istället för att blint acceptera genAI-utvecklingen som en naturlag skulle man istället kunna fråga: Hur kan vi styra teknologin för att tjäna demokratin, arbetarna och den breda befolkningen — snarare än några få företagsintressen?

Generativ AI, precis som ångmaskinen, elektriciteten och datoriseringen, är inte en neutral kraft. Den formas av de regler vi sätter upp, av de incitament vi bygger in, av de aktörer som väljer att agera, och av de prioriteringar vi gör. Thorndikes halo-effekt berättar en ensidigt positiv och optimistisk historia om demokratiserande generativ AI, även om den just nu utvecklas i en riktning som påminner om den tidiga industrialiseringen där den istället ökar ojämlikhet, underminerar arbetstillfällen och koncentrerar makt hos några få aktörer.

Men så behöver det inte fortsätta.

Vi kan välja en väg där AI förbättrar arbetslivet snarare än förstör jobb, där den hjälper oss att skapa en mer hållbar värld snarare än att sluka resurser, och där den förstärker vårt språk, vår kultur och vårt samhälle snarare än att urvattna dem. Poängen är att detta inte kommer att ske automatiskt. Det är inte en inneboende egenskap hos teknologi att göra det. Det krävs regler, policy och lagar för att uppnå detta.

Den verkliga frågan är alltså inte om vi ska ha generativ AI eller inte. Det är hur vi vill att den ska fungera — och för vems skull. Att blint rusa framåt är inget framsteg. Ett verkligt framsteg vore att stanna upp och fråga: Vilken framtid vill vi egentligen ha?

Neil Postman, mediateoretiker och författare, formulerade sju centrala frågor vi alltid bör ställa oss när vi står på tröskeln inför ett nytt teknologiskifte:

  1. Vilket problem påstår teknologin sig vara en lösning på?

  2. Vems problem är det?

  3. Vilka nya problem kommer att skapas genom att lösa ett gammalt?

  4. Vilka människor och institutioner kommer att drabbas hårdast?

  5. Vilka förändringar i språket främjas?

  6. Vilka skiften i ekonomisk och politisk makt är troliga som följd?

  7. Vilka alternativa medier skulle kunna skapas utifrån teknologin?

En seriös och eftertänksam genomgång av dessa frågor när det gäller generativ AI skulle vara bra att göra – innan man tar på sig löparskorna och ställer sig i startblocken.

A surreal landscape of snowy cliffs with jagged mountain peaks under a vibrant gradient sky that shifts from orange to pink and purple. People wearing old-fashioned expedition clothing pull ropes across the snow, helping others traverse a crevice of circuits and wires. Tall transmission towers rise from the mountaintops, and in the depths of the canyon below, a grid of electronic circuits is melting the snow.

Jag heter Pontus Wärnestål och är forskare, designer och författare. Jag arbetar, forskar och undervisar inom artificiell intelligens, design och digitalisering. Inte bara med generativ AI, utan bredare tillämpningar av digital teknologi i företag, samhälle, infrastruktur och kultur. Det kan verka motsägelsefullt att jag i min yrkesroll är så kritisk till något jag själv är en del av. Men det är just skälet! Jag vill att det vi bygger ska bli bra; hållbart, rättvist och klokt. Vi har bara en chans att göra det här på rätt sätt. För att det ska ske behöver vi fler perspektiv, inte färre. Teknik är aldrig neutral, och det är upp till oss att styra den i den riktning vi tror på.

Tack till Oskar Broberg och Johan Cedmar-Brandstedt för feedback och bidrag till den här texten.

 
Read more...

from Brand New Shield

A Single Ownership Model is the only way a league can both succeed and operate with integrity. Any form the Brand New Shield takes will be with a single ownership model. So, let's dive into single ownership models and why they are better than the alternative.

A single ownership model is when one person or entity owns the entire league. While there are some drawbacks which are mostly financial, there are many advantages. The biggest advantage is that all of the teams in the league are operating on a level playing field. If all the teams operate in the same manor and within the same overall organizational structure, you're naturally going to create more competition and more parity than if they didn't. Obviously it does not work out this way all of the time, but it happens at a much more frequent rate than it does in the team owned leagues where each team is owned by a different person/entity. As we know, some of these teams in this format are operated by utter buffoons. If we take the buffoonery out of the equation, the league is better off. The downside to a single ownership model here is that if the people in the entity that runs the entire league are buffoons, then buffoonery spreads everywhere throughout the league. I'd rather take my chances on trying to take all the idiocy out of the equation altogether than have many teams run by delusional idiots.

The single ownership model also makes decision making easier. It is much easier for one entity to make decisions such as rule changes, adopting new business policies, approving new media rights deals and such than it is for a league of multiple entities who have to then schedule votes on such decisions. A league under one entity can adapt and evolve more quickly because the organizational structure of the league is simply way more efficient. The league can also more easily implement policies that benefit players and league employees at all levels alike instead of some of these things varying from team to team.

The downside like I said is mainly financial. You don't have all of these partners so to speak bringing in billions of dollars to the table all the time like you do in the current structure of the major sports leagues here in North America when you have a single ownership model. However, most of the time, that money comes with corruption and integrity issues. The vision for the Brand New Shield is to eliminate the corruption and the integrity issues, so the financial downsides are welcome to that extent (but of course, the league still has to make enough to sustain itself and operate).

I can write about this subject at length as you all can see, but I will stop here. Ideally, a football league will be run by football people who believe both in moving the game forward to the future and see football for what it should be, a game of integrity. We currently do not have that in my opinion anywhere in professional football which is why I've created this blog to flush out my argument for why we the people deserve a Brand New Shield.

 
Read more...

from sugarrush-77

I think if somebody was hurting me while they told me they loved me, that would really turn me on. I think I have an affinity to being bullied and abused. Not crazy abuse, that would piss me off, but small amounts of abuse. I think this might be because I was beat frequently as a kid, and some of the love that I received was conditional on achievement. I lack any sort of self respect, and I find it hard to disobey orders from time to time.

I haven’t started cutting yet, because I’m afraid I might lose control and actually kill myself. I would definitely not want that happening although I fantasize about dying from time to time. I wonder what a safer alternative is to cutting that would let me give me release on this urge to hurt myself.

 
더 읽어보기...

from tomson darko

In films weten ze altijd wat ze doen als het op eerste keer seks met iemand aankomt.

Er is wat gezoen. De kleren gaan uit. We zien altijd de blote borsten van de vrouw. Met een beetje geluk de billen van de man. Dan is het klaar en liggen ze tevreden in bed.

Maar ik zal nooit vergeten wat een studiegenote tegen me vertelde toen we het hadden over seks.

Ik bekende dat ik nog maar één bedpartner had gehad en die relatie was net over. Zij zei dat ze inmiddels haar derde serieuze relatie had en dus drie bedpartners.

‘Het is met elk persoon zo anders.’

Dat zie je nou nooit in films.

=

Omdat het met iedereen zo anders is, ontkom je er niet aan dat de eerste paar keer het niveau belabberd is. Laat maar zeggen: sukkel-seks-niveau.

Tegen elkaar aan botsende tanden. Gepruts met condooms. Verwarring over het standje. Het gaat te snel, of te langzaam.

Je doet beiden maar wat. Zenuwachtig. Onhandig. Onbekend met elkaars lijf.

And I think that is beautiful.

Bedoel.

Ken je de piratenserie Black Sails (2014)? In de openingsaflevering heeft de hoofdpersoon out of the blue een sekspartij met een paar vrouwen. De noodzaak van deze scène ontging me volledig. En dan die lichamen.

Hij SUPERGESPIERD. De vrouwen SUPERSLANK en goed verzorgd. Ze weten allemaal wat ze doen. Ze genieten allemaal extreem.

Hallo.

We hebben het over piraten. Niet over een hijgerige parfumreclame.

Je merkt overigens inmiddels wel dat ook de film-, televisie- en boekenwereld verandert.

In de dramaserie The Deuce (2017) van de briljante David Simon (1960) volgen we de opkomst van de porno-industrie in de jaren ’70 en ’80 in Amerika.

Ja. Er zit veel seks in. Maar niets wordt verheerlijkt. We zien echte lichamen. We zien gewoon piemels. En veel schaamhaar. Maar ook de knulligheid van seks, en helemaal bij het opnemen van een pornofilm.

In het derde boek van Sally Rooney (1991), Prachtige wereld, waar ben je (2021), zit ook veel seks.

Lieve-woorden-fluisteren-toestemming-seks.

‘Vind je dit lekker? Mag ik dit doen? Mag ik dat zeggen?’

En ze zaten beiden aan elkaar, er was een kreun en een zucht en klaar is Kees.

Dat is overigens oké.

Maar ook een beetje geromantiseerd.

Ik wil gewoon ‘sukkelseks’, als tegengif in films en boeken en tv-series.

  • ’s Ochtends met je graftakkenbek de ander zoenen
  • Niet-werkende piemels door alcohol of spanning of ouderdom
  • Droge vagina’s
  • Gekraak van het bed dat enorm afleidt
  • Blaasontstekingen door het zaad van de man
  • Een vrouw die van de man eist dat ze hard wordt aangepakt en dat die man dan in huilen uitbarst

Dat niveau.

Omdat de wereld niet perfect is, maar ongemakkelijk.

=

Neem nou mannen.

Die maken zichzelf wijs dat ze goed stijf moeten worden en het lang moeten volhouden.

Enter de wereld van sukkelseks.

Een vriend was al maanden verliefd op een studiegenootje van hem. Na een paar keer een drankje doen, kwam ze bij hem thuis langs. Het zoenen ging over in voelen en van voelen kwam kleren uittrekken.

Nou.

Het moment suprême.

Onderbroeken eruit.

Condoom om.

Erin.

Hij kwam al meteen klaar.

Wat een desillusie.

Beetje suf. Klein beetje schaamte. Maar hij verbloemde het niet. Hij vertelde het gewoon aan me.

Geen stoere praat. Gewoon kwetsbaarheid.

Sukkelseks.

En het is allemaal goedgekomen. Soort van.

Vijf jaar later hadden ze een hypotheek, kinderen en ringen om elkaars vingers. Tien jaar later stonden ze te vechten bij de rechter om de voogdij van de kinderen. En ze leefden nog kort en ongelukkig.

Het is ook een terugkerend thema in de zes autobiografische Mijn strijd-boeken van de Noor Karl Ove Knausgård (1968).

Hij komt altijd na drie of vier stoten klaar.

Hoe hij dit in detail uitlegt in de boeken, hoe de eerste jaren seks met diverse meiden ging. Bij de een leverde dat ongemak op, dat snelle klaarkomen. Bij de ander ontstond er juist verbinding en intimiteit.

Het werkt ontnuchterend.

Of de film Dream Scenario (2023) met Nicolas Cage (1964).

De suffige, verongelijkte evolutiebiologieleraar Paul Matthews duikt op in de dromen van mensen. Niet van één of twee personen. Maar van bijna iedereen.

Hoe ga je om met deze plotseling ontstane roem? Hij probeert er een slaatje uit te slaan. Nu heeft hij eindelijk de kans om een boek te publiceren over zijn vakgebied: mieren.

Maar de partij die hem erbij wil begeleiden, heeft helemaal niet zoveel interesse in zijn interesses. Ze zijn in hem geïnteresseerd als fenomeen.

Heeft hij er weleens over nagedacht om het gezicht van het drankje Sprite te worden? Elke avond een socialmediapost van hem met een blikje in de hand en dan mensen welterusten wensen?

Paul wil geen Sprite. Hij wil schrijven. Over mieren.

Een van de medewerkers van dit PR-bedrijf, Molly, bekent aan Paul dat ze vrij specifieke dromen over hem heeft.

Je weet wel.

SEKSDROMEN.

Die droom gaat zo:

Ze is alleen thuis. Ze kijkt tv. En dan komt hij zelfverzekerd haar kamertje binnen.

Hij loopt naar haar toe, met langzame stappen. Zelfverzekerde blik. Hij gaat naast haar op de bank zitten, kijkt haar aan, begint aan haar oor te lebberen en legt zijn hand tussen haar benen. Hij pakt haar bij de nek vast en begint haar te zoenen.

Je weet hoe het verder gaat.

Het moge duidelijk zijn dat Molly deze dromen graag in het echt wil beleven met Paul. En je merkt dat Paul, bevangen door al die aandacht voor hem als persoon, hier ook wel warm van wordt.

Ze gaan met z’n tweeën naar haar huis toe.

Ze gaat op de bank zitten.

Hij moet binnenkomen in haar huis, zoals hij in haar dromen binnenkomt.

Maar ja. Dit is de realiteit. Dit is de ongemakkelijke Paul. En niet alleen dat. Deze hele situatie voelt natuurlijk gekkig aan.

‘In mijn dromen neem jij vaak de leiding,’ zegt Molly tegen Paul als aanmoediging.

‘Wat wil je?’ vraagt Paul verward.

Molly begint hem te zoenen en probeert daarna zijn broek los te maken.

Dan laat hij een scheet.

Vervolgens volgt de biologische verklaring uit zijn mond: dat dit komt door de spanning. Allemaal heel logisch en begrijpelijk.

Molly gaat verder met het losmaken van de broek.

En dan komt Paul al klaar, met een schitterende ongemakkelijke kreun.

Kortom: sukkelseks.

Meer van dat alsjeblieft.

==

Seks hoeft geen hijgerige parfumreclame te zijn.

Klungel, giechel en stuntel aan.

Laat de sukkelseks er zijn.

Blijven proberen, blijven zoeken, blijven prutsen. Totdat je elkaars lichaam en verlangens écht begrijpt.

Daar, in dat onhandige gedoe, ontstaat uiteindelijk de echte magie.

En dan volgt vanzelf intergalactische avonturen tussen de lakens.

 
Read more...

from tomson darko

Het eerste boek dat ik schreef heette De schilders van de Golden Gate Bridge.
(Nooit gepubliceerd.)

Deze schilders deden er vijf jaar over om de beroemde brug in San Francisco van een kleurtje en een antiroestlaag te voorzien. Om daarna opnieuw te beginnen.

Elke dag die brug schilderen. Vijf jaar lang!

Ik vond het een hele deprimerende gedachte.

Dat was het thema van mijn boek.
(Ik ben het plot vergeten.)

Het leven zit vol Golden Gate Bridge-taken.

  • Weer pepernoten in september in de winkel.
  • Weer het herhaalnummer intikken bij de apotheek voor mijn driemaandelijkse hooikoortstabletten.
  • Weer een verjaardagscadeau kopen voor iemand die zelf ook niet weet wat hij wil.
  • Weer een pakketje bij de buren ophalen.

Ik had een collega die de zin van gordijnen dichtdoen niet inzag. Na het slapen deed je ze weer open. Waar sloeg het op?

Ja. Nu ik er dieper over nadenk: waarom doen we dit?

Maar laten we wel wezen, het leven zit vol praktische herhalingen.

Het leven is de herhaling van wat we doen.

Het is juist wanneer het leven in ons zwaar wordt, dat deze taken ook zwaarder beginnen te drukken.

==

Zelfverwaarlozing begint met het bed niet meer opmaken in de ochtend. Vervolgens sla je het ontbijt over en kleed je je niet eens meer aan. Je begint appjes te negeren. Je negeert de pakketbezorger voor de deur. Uren verstrijken, maar aan het einde van de dag heb je geen idee waarmee.

De bekendste metafoor voor de herhaling van het leven is Sisyphus. De man die in de Griekse mythologie elke dag als straf een steen de berg oprolt. Om die vervolgens weer naar beneden te zien rollen.

Dat zijn wij. Elke dag weer hetzelfde doen bij een werkgever. Zonder dat het per se iets bijdraagt aan de wereld of ons innerlijk leven.

Mijn favoriete filosofische romanschrijver en favoriete Fransman, Albert Camus (1913–1960), schreef dat we Sisyphus als een gelukkig mens moeten beschouwen. Want de ware vrijheid zit niet in het steen duwen, maar in wat je er zelf van maakt.

Dat wat we doen mag dan zinloos zijn op de schaal van het universum, je kunt altijd nog een eigen wereldje creëren dat wel de moeite waard is.

Weet je wat ik denk?

Ik denk dat als het leven goed gaat, het niet eens voelt als elke dag een steen de berg oprollen.

De repeterende taken onthouden we niet eens. We doen ze gewoon. Tandenpoetsen, pannetje op het vuur, je moeder een appje sturen.
Net zoals we op werk geen vragen stellen over wiens leven nou precies beter wordt van het aantal toetsaanslagen dat jij dagelijks op je toetsenbord maakt en het aantal mailtjes dat je per dag beantwoordt.

Het is juist bij tegenslag of bij een periode van sleur dat het leven een rotsblok wordt. Juist dan vallen die repeterende dingen ons op en die beginnen zwaar aan onze ziel te trekken.

En voor je het weet worden de gedachten zeer donker.

Wat heeft het eigenlijk voor zin om mijn tuin te onderhouden, als ik over vijf jaar hier niet meer woon en dan andere mensen hier komen wonen, die al deze schoonheid eruit graven en er tegels voor in de plaats leggen?

Waarom ga ik toch zo fel in tegen mijn collega over dit project? Het gaat nergens over. Waarom doe ik dan alsof dit me raakt?

Maar, niet getreurd. Ik denk oprecht dat juist in de repeterende taken het pad naar verlichting ligt bij tegenslag.

Ja. Dat denk ik echt. En nee. Ik ben geen boeddhist.

Juist als alle zuurstof je ontnomen is, blijf goed voor jezelf zorgen.

Bij de dood, liefdesverdriet, kanker, miskraam, reorganisatie, gebroken vriendschap, najaarsdip, ruzie met je ouders. Juist dan moeten we die steen elke dag weer de berg op blijven duwen.

  • Blijf op tijd opstaan.
  • Blijf ontbijten.
  • Houd de was bij.
  • Blijf appjes beantwoorden.

Het wordt een levenslijn in de chaos van gevoelens en gebrek aan zingeving.

Het is een taak, hoe zinloos ook, die structuur geeft. We hoeven er niet te veel bij na te denken. Het sleept ons de dag door.

Juist als het leven even als een sleur aanvoelt, moet je nog meer de praktische kanten ervan blijven uitvoeren.

Juist als je geen zin hebt om het toilet schoon te maken, moet je die gele handschoenen aantrekken en bleekmiddel erin mieteren en ‘woehaa’ roepen als je de onderrand aan het borstelen bent (of ben ik de enige die dit doet?).

Juist als je geen zin hebt om te sporten, moet je die kont van je in een trainingsbroek stoppen en even laten zien wie het hardst kan zweten van allemaal.

Dat gevoel dat daarna komt, als je het dan toch gedaan hebt. Dat is het begin van het herstel. Dat je nog steeds in staat bent om fijne gevoelens te forceren. Ook al is dat gevoel maar even.

Je hebt het toch maar weer gedaan.

Liefs,

tomson

 
Read more...

from Roscoe's Story

In Summary: * Not my favorite Wednesday: this. I did handle a variety of chores, and handled them rather well, actually. But could have done them better if I'd been in top form. Or anywhere near top form. Oh well, some days are better than others. This just happened to be one of the “others.” Tomorrow may be better.

Prayers, etc.: *I have a daily prayer regimen I try to follow throughout the day from early morning, as soon as I roll out of bed, until head hits pillow at night. Details of that regimen are linked to my link tree, which is linked to my profile page here.

Health Metrics: * bw= 221 lbs. * bp= 123/75 (67)

Exercise: * morning stretches, balance exercises, kegel pelvic floor exercises, half squats, calf raises, wall push-ups

Diet: * 06:10 – toast and butter * 07:40 – crispy oatmeal cookies * 14:00 – fried chicken, white bread, crispy oatmeal cookies

Activities, Chores, etc.: * 05:00 – listen to local news talk radio * 06:20 – bank accounts activity monitored * 06:50 – read, pray, follow news reports from various sources, surf the socials, nap * 07:10 – begin prep for doctor's appointment * 11:30 – go to Doctor's office for regular check up * 15:45 – tune in the The Jack Riccardi Show * 17:40 – listening to The Joe Pags Show * 20:00 – Browsing “Amelia” themed memes on YouTube. Definitely a high point of my day. :)

Chess: * 17:20 – moved in all pending CC games

 
Read more...

from SmarterArticles

In November 2025, Grammy-winning artist Victoria Monet sat for an interview with Vanity Fair and confronted something unprecedented in her fifteen-year career. Not a rival artist. Not a legal dispute over songwriting credits. Instead, she faced an algorithmic apparition: an AI-generated persona called Xania Monet, whose name, appearance, and vocal style bore an uncanny resemblance to her own. “It's hard to comprehend that, within a prompt, my name was not used for this artist to capitalise on,” Monet told the magazine. “I don't support that. I don't think that's fair.”

The emergence of Xania Monet, who secured a $3 million deal with Hallwood Media and became the first AI artist to debut on a Billboard radio chart, represents far more than a curiosity of technological progress. It exposes fundamental inadequacies in how intellectual property law conceives of artistic identity, and it reveals the emergence of business models specifically designed to exploit zones of legal ambiguity around voice, style, and likeness. The question is no longer whether AI can approximate human creativity. The question is what happens when that approximation becomes indistinguishable enough to extract commercial value from an artist's foundational assets while maintaining plausible deniability about having done so.

The controversy arrives at a moment when the music industry is already grappling with existential questions about AI. Major record labels have filed landmark lawsuits against AI music platforms. European courts have issued rulings that challenge the foundations of how AI companies operate. Congress is debating legislation that would create the first federal right of publicity in American history. And streaming platforms face mounting evidence that AI-generated content is flooding their catalogues, diluting the royalty pool that sustains human artists. Xania Monet sits at the intersection of all these forces, a test case for whether our existing frameworks can protect artistic identity in an age of sophisticated machine learning.

The Anatomy of Approximation

Victoria Monet's concern centres on something that existing copyright law struggles to address: the space between direct copying and inspired derivation. Copyright protects specific expressions of ideas, not the ideas themselves. It cannot protect a vocal timbre, a stylistic approach to melody, or the ineffable quality that makes an artist recognisable across their catalogue. You can copyright a particular song, but you cannot copyright the essence of how Victoria Monet sounds.

This legal gap has always existed, but it mattered less when imitation required human effort and inevitably produced human variation. A singer influenced by Monet would naturally develop their own interpretations, their own quirks, their own identity over time. But generative AI systems can analyse thousands of hours of an artist's work and produce outputs that capture stylistic fingerprints with unprecedented fidelity. The approximation can be close enough to trigger audience recognition without being close enough to constitute legal infringement.

The technical process behind this approximation involves training neural networks on vast corpora of existing music. These systems learn to recognise patterns across multiple dimensions simultaneously: harmonic progressions, rhythmic structures, timbral characteristics, production techniques, and vocal stylings. The resulting model does not store copies of the training data in any conventional sense. Instead, it encodes statistical relationships that allow it to generate new outputs exhibiting similar characteristics. This architecture creates a genuine conceptual challenge for intellectual property frameworks designed around the notion of copying specific works.

Xania Monet exemplifies this phenomenon. The vocals and instrumental music released under her name are created using Suno, the AI music generation platform. The lyrics come from Mississippi poet and designer Telisha Jones, who serves as the creative force behind the virtual persona. But the sonic character, the R&B vocal stylings, the melodic sensibilities that drew comparisons to Victoria Monet, emerge from an AI system trained on vast quantities of existing music. In an interview with Gayle King, Jones defended her creative role, describing Xania Monet as “an extension of myself” and framing AI as simply “a tool, an instrument” to be utilised.

Victoria Monet described a telling experiment: a friend typed the prompt “Victoria Monet making tacos” into ChatGPT's image generator, and the system produced visuals that looked uncannily similar to Xania Monet's promotional imagery. Whether this reflects direct training on Victoria Monet's work or the emergence of stylistic patterns from broader R&B training data, the practical effect remains the same. An artist's distinctive identity becomes raw material for generating commercial competitors.

The precedent for this kind of AI-mediated imitation emerged dramatically in April 2023, when a song called “Heart on My Sleeve” appeared on streaming platforms. Created by an anonymous producer using the pseudonym Ghostwriter977, the track featured AI-generated vocals designed to sound like Drake and the Weeknd. Neither artist had any involvement in its creation. Universal Music Group quickly filed takedown notices citing copyright violation, but the song had already gone viral, demonstrating how convincingly AI could approximate celebrity vocal identities. Ghostwriter later revealed that the actual composition was entirely human-created, with only the vocal filters being AI-generated. The Recording Academy initially considered the track for Grammy eligibility before determining that the AI voice modelling made it ineligible.

The Training Data Black Box

At the heart of these concerns lies a fundamental opacity: the companies building generative AI systems have largely refused to disclose what training data their models consumed. This deliberate obscurity creates a structural advantage. When provenance cannot be verified, liability becomes nearly impossible to establish. When the creative lineage of an AI output remains hidden, artists cannot prove that their work contributed to the system producing outputs that compete with them.

The major record labels, Universal Music Group, Sony Music Entertainment, and Warner Music Group, recognised this threat early. In June 2024, they filed landmark lawsuits against Suno and Udio, the two leading AI music generation platforms, accusing them of “willful copyright infringement at an almost unimaginable scale.” The Recording Industry Association of America alleged that Udio's system had produced outputs with striking similarities to specific protected recordings, including songs by Michael Jackson, the Beach Boys, ABBA, and Mariah Carey. The lawsuits sought damages of up to $150,000 per infringed recording, potentially amounting to hundreds of millions of dollars.

Suno's defence hinged on a revealing argument. CEO Mikey Shulman acknowledged that the company trains on copyrighted music, stating, “We train our models on medium- and high-quality music we can find on the open internet. Much of the open internet indeed contains copyrighted materials.” But he argued this constitutes fair use, comparing it to “a kid writing their own rock songs after listening to the genre.” In subsequent legal filings, Suno claimed that none of the millions of tracks generated on its platform “contain anything like a sample” of existing recordings.

This argument attempts to draw a bright line between the training process and the outputs it produces. Even if the model learned from copyrighted works, Suno contends, the music it generates represents entirely new creations. The analogy to human learning, however, obscures a crucial difference: when humans learn from existing music, they cannot perfectly replicate the statistical patterns of that music's acoustic characteristics. AI systems can. And the scale differs by orders of magnitude. A human musician might absorb influences from hundreds or thousands of songs over a lifetime. An AI system can process millions of tracks and encode their patterns with mathematical precision.

The United States Copyright Office weighed in on this debate with a 108-page report published in May 2025, concluding that using copyrighted materials to train AI models may constitute prima facie infringement and warning that transformative arguments are not inherently valid. Where AI-generated outputs demonstrate substantial similarity to training data inputs, the report suggested, the model weights themselves may infringe reproduction and derivative work rights. The report also noted that the transformative use doctrine was never intended to permit wholesale appropriation of creative works for commercial AI development.

Separately, the Copyright Office had addressed the question of AI authorship. In a January 2025 decision, the office stated that AI-generated work can receive copyright protection “when and if it embodies meaningful human authorship.” This creates an interesting dynamic: the outputs of AI music generation may be copyrightable by the humans who shaped them, even as the training process that made those outputs possible may itself constitute infringement of others' copyrights.

The Personality Protection Gap

The Xania Monet controversy illuminates why copyright law alone cannot protect artists in the age of generative AI. Even if the major label lawsuits succeed in establishing that AI companies must license training data, this would not necessarily protect individual artists from having their identities approximated.

Consider what Victoria Monet actually lost in this situation. The AI persona did not copy any specific song she recorded. It did not sample her vocals. What it captured, or appeared to capture, was something more fundamental: the quality of her artistic presence, the characteristics that make audiences recognise her work. This touches on what legal scholars call the right of publicity, the right to control commercial use of one's name, image, and likeness.

But here the legal landscape becomes fragmented and inadequate. In the United States, there is no federal right of publicity law. Protection varies dramatically by state, with around 30 states providing statutory rights and others relying on common law protections. All 50 states recognise some form of common law rights against unauthorised use of a person's name, image, or likeness, but the scope and enforceability of these protections differ substantially across jurisdictions.

Tennessee's ELVIS Act, which took effect on 1 July 2024, became the first state legislation specifically designed to protect musicians from unauthorised AI replication of their voices. Named in tribute to Elvis Presley, whose estate had litigated to control his posthumous image rights, the law explicitly includes voice as protected property, defining it to encompass both actual voice and AI-generated simulations. The legislation passed unanimously in both chambers of the Tennessee legislature, with 93 ayes in the House and 30 in the Senate, reflecting bipartisan recognition of the threat AI poses to the state's music industry.

Notably, the ELVIS Act contains provisions targeting not just those who create deepfakes without authorisation but also the providers of the systems used to create them. The law allows lawsuits against any person who “makes available an algorithm, software, tool, or other technology, service, or device” whose “primary purpose or function” is creating unauthorised voice recordings. This represents a significant expansion of liability that could potentially reach AI platform developers themselves.

California followed with its own protective measures. In September 2024, Governor Gavin Newsom signed AB 2602, which requires contracts specifying the use of AI-generated digital replicas of a performer's voice or likeness to include specific consent and professional representation during negotiations. The law defines a “digital replica” as a “computer-generated, highly realistic electronic representation that is readily identifiable as the voice or visual likeness of an individual.” AB 1836 prohibits creating or distributing digital replicas of deceased personalities without permission from their estates, extending these protections beyond the performer's lifetime.

Yet these state-level protections remain geographically limited and inconsistently applied. An AI artist created using platforms based outside these jurisdictions, distributed through global streaming services, and promoted through international digital channels exists in a regulatory grey zone. The Copyright Office's July 2024 report on digital replicas concluded there was an urgent need for federal right of publicity legislation protecting all people from unauthorised use of their likeness and voice, noting that the current patchwork of state laws creates “gaps and inconsistencies” that are “far too inconsistent to remedy generative AI commercial appropriation.”

The NO FAKES Act, first introduced in Congress in July 2024 by a bipartisan group of senators including Chris Coons, Marsha Blackburn, Amy Klobuchar, and Thom Tillis, represents the most comprehensive attempt to address this gap at the federal level. The legislation would establish the first federal right of publicity in the United States, providing a national standard to protect creators' likenesses from unauthorised use while allowing control over digital personas for 70 years after death. The reintroduction in April 2025 gained support from an unusual coalition including major record labels, SAG-AFTRA, Google, and OpenAI. Country music artist Randy Travis, whose voice was digitally recreated using AI after a stroke left him unable to sing, appeared at the legislation's relaunch.

But even comprehensive right of publicity protection faces a fundamental challenge: proving that a particular AI persona was specifically created to exploit another artist's identity. Xania Monet's creators have not acknowledged any intention to capitalise on Victoria Monet's identity. The similarity in names could be coincidental. The stylistic resemblances could emerge organically from training on R&B music generally. Without transparency about training data composition, artists face the impossible task of proving a negative.

The Business Logic of Ambiguity

What makes the Xania Monet case particularly significant is what it reveals about emerging business models in AI music. This is not an accidental byproduct of technological progress. It represents a deliberate commercial strategy that exploits the gap between what AI can approximate and what law can protect.

Hallwood Media, the company that signed Xania Monet to her $3 million deal, is led by Neil Jacobson, formerly president of Geffen Records. Hallwood operates as a multi-faceted music company servicing talent through recording, management, publishing, distribution, and merchandising divisions. The company had already invested in Suno and, in July 2025, signed imoliver, described as the top-streaming “music designer” on Suno, in what was billed as the first traditional label signing of an AI music creator. Jacobson positioned these moves as embracing innovation, stating that imoliver “represents the future of our medium. He's a music designer who stands at the intersection of craftwork and taste.”

The distinction between imoliver and Xania Monet is worth noting. Hallwood describes imoliver as a real human creator who uses AI tools, whereas Xania Monet is presented as a virtual artist persona. But in both cases, the commercial model extracts value from AI's ability to generate music at scale with reduced human labour costs.

The economics are straightforward. An AI artist requires no rest, no touring support, no advance payments against future royalties, no management of interpersonal conflicts or creative disagreements. Victoria Monet herself articulated this asymmetry: “It definitely puts creators in a dangerous spot because our time is more finite. We have to rest at night. So, the eight hours, nine hours that we're resting, an AI artist could potentially still be running, studying, and creating songs like a machine.”

Xania Monet's commercial success demonstrates the model's viability. Her song “How Was I Supposed to Know” reached number one on R&B Digital Song Sales and number three on R&B/Hip-Hop Digital Song Sales. Her catalogue accumulated 9.8 million on-demand streams in the United States, with 5.4 million coming in a single tracking week. She became the first AI artist to debut on a Billboard radio chart, entering the Adult R&B Airplay chart at number 30. Her song “Let Go, Let God” debuted at number 21 on Hot Gospel Songs.

For investors and labels, this represents an opportunity to capture streaming revenue without many of the costs associated with human artists. For human artists, it represents an existential threat: the possibility that their own stylistic innovations could be extracted, aggregated, and turned against them in the form of competitors who never tire, never renegotiate contracts, and never demand creative control. The music industry has long relied on finding and developing talent, but AI offers a shortcut that could fundamentally alter how value is created and distributed.

The Industry Response and Its Limits

Human artists have pushed back against AI music with remarkable consistency across genres and career levels. Kehlani took to TikTok to express her frustration about Xania Monet's deal, stating, “There is an AI R&B artist who just signed a multi-million-dollar deal, and has a Top 5 R&B album, and the person is doing none of the work.” She declared that “nothing and no one on Earth will ever be able to justify AI to me.”

SZA expressed environmental and ethical concerns, posting on Instagram that AI technology causes “harm” to marginalised neighbourhoods and asking fans not to create AI images or songs using her likeness. Baby Tate criticised Xania Monet's creator for lacking creativity and authenticity in her music process. Muni Long questioned why AI artists appeared to be gaining acceptance in R&B specifically, asking, “It wouldn't be allowed to happen in country or pop.” She also noted that Xania Monet's Apple Music biography listed her, Keyshia Cole, and K. Michelle as references, adding, “I'm not happy about it at all. Zero percent.”

Beyonce reportedly expressed fear after hearing an AI version of her own voice, highlighting how even artists at the highest commercial tier feel vulnerable to this technology.

This criticism highlights an uncomfortable pattern: the AI music entities gaining commercial traction have disproportionately drawn comparisons to Black R&B artists. Whether this reflects biases in training data composition, market targeting decisions, or coincidental emergence, the effect raises questions about which artistic communities bear the greatest risks from AI appropriation. The history of American popular music includes numerous examples of Black musical innovations being appropriated by white artists and industry figures. AI potentially automates and accelerates this dynamic.

The creator behind Xania Monet has not remained silent. In December 2025, the AI artist released a track titled “Say My Name With Respect,” which directly addressed critics including Kehlani. While the song does not mention Kehlani by name, the accompanying video displayed screenshots of her previous statements about AI alongside comments from other detractors.

The major labels' lawsuits against Suno and Udio remain ongoing, though Universal Music Group announced in 2025 that it had settled with Udio and struck a licensing deal, following similar action by Warner Music Group. These settlements suggest that large rights holders may secure compensation and control over how their catalogues are used in AI training. But individual artists, particularly those not signed to major labels, may find themselves excluded from whatever protections these arrangements provide.

The European Precedent

While American litigation proceeds through discovery and motions, Europe has produced the first major judicial ruling holding an AI developer liable for copyright infringement related to training. On 11 November 2025, the Munich Regional Court ruled largely in favour of GEMA, the German collecting society representing songwriters, in its lawsuit against OpenAI.

The case centred on nine songs whose lyrics ChatGPT could reproduce almost verbatim in response to simple user prompts. The songs at issue included well-known German tracks such as “Atemlos” and “Wie schon, dass du geboren bist.” The court accepted GEMA's argument that training data becomes embedded in model weights and remains retrievable, a phenomenon researchers call “memorisation.” Even a 15-word passage was sufficient to establish infringement, the court found, because such specific text would not realistically be generated from scratch.

Crucially, the court rejected OpenAI's attempt to benefit from text and data mining exceptions applicable to non-profit research. OpenAI argued that while some of its legal entities pursue commercial objectives, the parent company was founded as a non-profit. Presiding Judge Dr Elke Schwager dismissed this argument, stating that to qualify for research exemptions, OpenAI would need to prove it reinvests 100 percent of profits in research and development or operates with a governmentally recognised public interest mandate.

The ruling ordered OpenAI to cease storing unlicensed German lyrics on infrastructure in Germany, provide information about the scope of use and related revenues, and pay damages. The court also ordered that the judgment be published in a local newspaper. Finding that OpenAI had acted with at minimum negligence, the court denied the company a grace period for making the necessary changes. OpenAI announced plans to appeal, and the judgment may ultimately reach the Court of Justice of the European Union. But as the first major European decision holding an AI developer liable for training on protected works, it establishes a significant precedent.

GEMA is pursuing parallel action against Suno in another lawsuit, with a hearing expected before the Munich Regional Court in January 2026. If European courts continue to reject fair use-style arguments for AI training, companies may face a choice between licensing music rights or blocking access from EU jurisdictions entirely.

The Royalty Dilution Problem

Beyond the question of training data rights lies another structural threat to human artists: the dilution of streaming royalties by AI-generated content flooding platforms. Streaming services operate on pro-rata payment models where subscription revenue enters a shared pool divided according to total streams. When more content enters the system, the per-stream value for all creators decreases.

In April 2025, streaming platform Deezer estimated that 18 percent of content uploaded daily, approximately 20,000 tracks, is AI-generated. This influx of low-cost content competes for the same finite pool of listener attention and royalty payments that sustains human artists. In 2024, Spotify alone paid out $10 billion to the music industry, with independent artists and labels collectively generating more than $5 billion from the platform. But this revenue gets divided among an ever-expanding universe of content, much of it now machine-generated.

The problem extends beyond legitimate AI music releases to outright fraud. In a notable case, musician Michael Smith allegedly extracted more than $10 million in royalty payments by uploading hundreds of thousands of AI-generated songs and using bots to artificially inflate play counts. According to fraud detection firm Beatdapp, streaming fraud removes approximately $1 billion annually from the royalty pool.

A global study commissioned by CISAC, the international confederation representing over 5 million creators, projected that while generative AI providers will experience dramatic revenue growth, music creators will see approximately 24 percent of their revenues at risk of loss by 2028. Audiovisual creators face a similar 21 percent risk. This represents a fundamental redistribution of value from human creators to technology platforms, enabled by the same legal ambiguities that allow AI personas to approximate existing artists without liability.

The market for AI in music is expanding rapidly. Global AI in music was valued at $2.9 billion in 2024, with projections suggesting growth to $38.7 billion by 2033 at a compound annual growth rate of 25.8 percent. Musicians are increasingly adopting the technology, with approximately 60 percent utilising AI tools in their projects and 36.8 percent of producers integrating AI into their workflows. But this adoption occurs in the context of profound uncertainty about how AI integration will affect long-term career viability.

The Question of Disclosure

Victoria Monet proposed a simple reform that might partially address these concerns: requiring clear labelling of AI-generated music, similar to how food products must disclose their ingredients. “I think AI music, as it is released, needs to be disclosed more,” she told Vanity Fair. “Like on food, we have labels for organic and artificial so that we can make an informed decision about what we consume.”

This transparency principle has gained traction among legislators. In April 2024, California Representative Adam Schiff introduced the Generative AI Copyright Disclosure Act, which would require AI firms to notify the Copyright Office of copyrighted works used in training at least 30 days before publicly releasing a model. Though the bill did not become law, it reflected growing consensus that the opacity of training data represents a policy problem requiring regulatory intervention.

The music industry's lobbying priorities have coalesced around three demands: permission, payment, and transparency. Rights holders want AI companies to seek permission before training on copyrighted music. They want to be paid for such use through licensing deals. And they want transparency about what data sets models actually use, without which the first two demands cannot be verified or enforced.

But disclosure requirements face practical challenges. How does one audit training data composition at scale? How does one verify that an AI system was not trained on particular artists when the systems themselves may not retain explicit records of their training data? The technical architecture of neural networks does not readily reveal which inputs influenced which outputs. Proving that Victoria Monet's recordings contributed to Xania Monet's stylistic character may be technically impossible even with full disclosure of training sets.

Redefining Artistic Value

Perhaps the most profound question raised by AI music personas is not legal but cultural: what do we value about human artistic creation, and can those values survive technological displacement?

Human music carries meanings that transcend sonic characteristics. When Victoria Monet won three Grammy Awards in 2024, including Best New Artist after fifteen years of working primarily as a songwriter for other performers, that recognition reflected not just the quality of her album Jaguar II but her personal journey, her persistence through years when labels declined to spotlight her, her evolution from writing hits for Ariana Grande to commanding her own audience. “This award was a 15-year pursuit,” she said during her acceptance speech. Her work with Ariana Grande had already earned her three Grammy nominations in 2019, including for Album of the Year for Thank U, Next, but her own artistic identity had taken longer to establish. These biographical dimensions inform how listeners relate to her work.

An AI persona has no such biography. Xania Monet cannot discuss the personal experiences that shaped her lyrics because those lyrics emerge from prompts written by Telisha Jones and processed through algorithmic systems. The emotional resonance of human music often derives from audiences knowing that another human experienced something and chose to express it musically. Can AI-generated music provide equivalent emotional value, or does it offer only a simulation of feeling, convincing enough to capture streams but hollow at its core?

The market appears agnostic on this question, at least in the aggregate. Xania Monet's streaming numbers suggest that significant audiences either do not know or do not care that her music is AI-generated. This consumer indifference may represent the greatest long-term threat to human artists: not that AI music will be legally prohibited, but that it will become commercially indistinguishable from human music in ways that erode the premium audiences currently place on human creativity.

The emergence of AI personas that approximate existing artists reveals that our legal and cultural frameworks for artistic identity were built for a world that no longer exists. Copyright law assumed that copying required access to specific works and that derivation would be obvious. Right of publicity law assumed that commercial exploitation of identity would involve clearly identifiable appropriation. The economics of music assumed that creating quality content would always require human labour that commands payment.

Each of these assumptions has been destabilised by generative AI systems that can extract stylistic essences without copying specific works, create virtual identities that approximate real artists without explicit acknowledgment, and produce unlimited content at marginal costs approaching zero.

The solutions being proposed represent necessary but insufficient responses. Federal right of publicity legislation, mandatory training data disclosure, international copyright treaty updates, and licensing frameworks for AI training may constrain the most egregious forms of exploitation while leaving the fundamental dynamic intact: AI systems can transform human creativity into training data, extract commercially valuable patterns, and generate outputs that compete with human artists in ways that existing law struggles to address.

Victoria Monet's experience with Xania Monet may become the template for a new category of artistic grievance: the sense of being approximated, of having one's creative identity absorbed into a system and reconstituted as competition. Whether law and culture can evolve quickly enough to protect against this form of extraction remains uncertain. What is certain is that the question can no longer be avoided. The ghost has emerged from the machine, and it wears a familiar face.


References and Sources

  1. Face2Face Africa. “Victoria Monet criticizes AI artist Xania Monet, suggests it may have been created using her likeness.” https://face2faceafrica.com/article/victoria-monet-criticizes-ai-artist-xania-monet-suggests-it-may-have-been-created-using-her-likeness

  2. TheGrio. “Victoria Monet sounds the alarm on Xania Monet: 'I don't support that. I don't think that's fair.'” https://thegrio.com/2025/11/18/victoria-monet-reacts-to-xania-monet/

  3. Billboard. “AI Music Artist Xania Monet Signs Multimillion-Dollar Record Deal.” https://www.billboard.com/pro/ai-music-artist-xania-monet-multimillion-dollar-record-deal/

  4. Boardroom. “Xania Monet's $3 Million Record Deal Sparks AI Music Debate.” https://boardroom.tv/xania-monet-ai-music-play-by-play/

  5. Music Ally. “Hallwood Media sees chart success with AI artist Xania Monet.” https://musically.com/2025/09/18/hallwood-media-sees-chart-success-with-ai-artist-xania-monet/

  6. RIAA. “Record Companies Bring Landmark Cases for Responsible AI Against Suno and Udio.” https://www.riaa.com/record-companies-bring-landmark-cases-for-responsible-ai-againstsuno-and-udio-in-boston-and-new-york-federal-courts-respectively/

  7. Rolling Stone. “RIAA Sues AI Music Generators For Copyright Infringement.” https://www.rollingstone.com/music/music-news/record-labels-sue-music-generators-suno-and-udio-1235042056/

  8. TechCrunch. “AI music startup Suno claims training model on copyrighted music is 'fair use.'” https://techcrunch.com/2024/08/01/ai-music-startup-suno-response-riaa-lawsuit/

  9. Skadden. “Copyright Office Weighs In on AI Training and Fair Use.” https://www.skadden.com/insights/publications/2025/05/copyright-office-report

  10. U.S. Copyright Office. “Copyright and Artificial Intelligence.” https://www.copyright.gov/ai/

  11. Wikipedia. “ELVIS Act.” https://en.wikipedia.org/wiki/ELVIS_Act

  12. Tennessee Governor's Office. “Tennessee First in the Nation to Address AI Impact on Music Industry.” https://www.tn.gov/governor/news/2024/1/10/tennessee-first-in-the-nation-to-address-ai-impact-on-music-industry.html

  13. ASCAP. “ELVIS Act Signed Into Law in Tennessee To Protect Music Creators from AI Impersonation.” https://www.ascap.com/news-events/articles/2024/03/elvis-act-tn

  14. California Governor's Office. “Governor Newsom signs bills to protect digital likeness of performers.” https://www.gov.ca.gov/2024/09/17/governor-newsom-signs-bills-to-protect-digital-likeness-of-performers/

  15. Manatt, Phelps & Phillips. “California Enacts a Suite of New AI and Digital Replica Laws.” https://www.manatt.com/insights/newsletters/client-alert/california-enacts-a-host-of-new-ai-and-digital-rep

  16. Congress.gov. “NO FAKES Act of 2025.” https://www.congress.gov/bill/119th-congress/house-bill/2794/text

  17. Billboard. “NO FAKES Act Returns to Congress With Support From YouTube, OpenAI for AI Deepfake Bill.” https://www.billboard.com/pro/no-fakes-act-reintroduced-congress-support-ai-deepfake-bill/

  18. Hollywood Reporter. “Hallwood Media Signs Record Deal With an 'AI Music Designer.'” https://www.hollywoodreporter.com/music/music-industry-news/hallwood-inks-record-deal-ai-music-designer-imoliver-1236328964/

  19. Billboard. “Hallwood Signs 'AI Music Designer' imoliver to Record Deal, a First for the Music Business.” https://www.billboard.com/pro/ai-music-creator-imoliver-record-deal-hallwood/

  20. Complex. “Kehlani Blasts AI Musician's $3 Million Record Deal.” https://www.complex.com/music/a/jadegomez510/kehlani-xenia-monet-ai

  21. Billboard. “Kehlani Slams AI Artist Xania Monet Over $3 Million Record Deal Offer.” https://www.billboard.com/music/music-news/kehlani-slams-ai-artist-xania-monet-million-record-deal-1236071158/

  22. Rap-Up. “Baby Tate & Muni Long Push Back Against AI Artist Xania Monet.” https://www.rap-up.com/article/baby-tate-muni-long-xania-monet-ai-artist-backlash

  23. Bird & Bird. “Landmark ruling of the Munich Regional Court (GEMA v OpenAI) on copyright and AI training.” https://www.twobirds.com/en/insights/2025/landmark-ruling-of-the-munich-regional-court-(gema-v-openai)-on-copyright-and-ai-training

  24. Billboard. “German Court Rules OpenAI Infringed Song Lyrics in Europe's First Major AI Music Ruling.” https://www.billboard.com/pro/gema-ai-music-copyright-case-open-ai-chatgpt-song-lyrics/

  25. Norton Rose Fulbright. “Germany delivers landmark copyright ruling against OpenAI: What it means for AI and IP.” https://www.nortonrosefulbright.com/en/knowledge/publications/656613b2/germany-delivers-landmark-copyright-ruling-against-openai-what-it-means-for-ai-and-ip

  26. CISAC. “Global economic study shows human creators' future at risk from generative AI.” https://www.cisac.org/Newsroom/news-releases/global-economic-study-shows-human-creators-future-risk-generative-ai

  27. WIPO Magazine. “How AI-generated songs are fueling the rise of streaming farms.” https://www.wipo.int/en/web/wipo-magazine/articles/how-ai-generated-songs-are-fueling-the-rise-of-streaming-farms-74310

  28. Grammy.com. “2024 GRAMMYs: Victoria Monet Wins The GRAMMY For Best New Artist.” https://www.grammy.com/news/2024-grammys-victoria-monet-best-new-artist-win

  29. Billboard. “Victoria Monet Wins Best New Artist at 2024 Grammys: 'This Award Was a 15-Year Pursuit.'” https://www.billboard.com/music/awards/victoria-monet-grammy-2024-best-new-artist-1235598716/

  30. Harvard Law School. “AI created a song mimicking the work of Drake and The Weeknd. What does that mean for copyright law?” https://hls.harvard.edu/today/ai-created-a-song-mimicking-the-work-of-drake-and-the-weeknd-what-does-that-mean-for-copyright-law/

  31. Variety. “AI-Generated Fake 'Drake'/'Weeknd' Collaboration, 'Heart on My Sleeve,' Delights Fans and Sets Off Industry Alarm Bells.” https://variety.com/2023/music/news/fake-ai-generated-drake-weeknd-collaboration-heart-on-my-sleeve-1235585451/

  32. ArtSmart. “AI in Music Industry Statistics 2025: Market Growth & Trends.” https://artsmart.ai/blog/ai-in-music-industry-statistics/

  33. Rimon Law. “U.S. Copyright Office Will Accept AI-Generated Work for Registration When and if It Embodies Meaningful Human Authorship.” https://www.rimonlaw.com/u-s-copyright-office-will-accept-ai-generated-work-for-registration-when-and-if-it-embodies-meaningful-human-authorship/

  34. Billboard. “AI Artist Xania Monet Fires Back at Kehlani & AI Critics on Prickly 'Say My Name With Respect' Single.” https://www.billboard.com/music/rb-hip-hop/xania-monet-kehlani-ai-artist-say-my-name-with-respect-1236142321/


Tim Green

Tim Green UK-based Systems Theorist & Independent Technology Writer

Tim explores the intersections of artificial intelligence, decentralised cognition, and posthuman ethics. His work, published at smarterarticles.co.uk, challenges dominant narratives of technological progress while proposing interdisciplinary frameworks for collective intelligence and digital stewardship.

His writing has been featured on Ground News and shared by independent researchers across both academic and technological communities.

ORCID: 0009-0002-0156-9795 Email: tim@smarterarticles.co.uk

 
Read more... Discuss...

Join the writers on Write.as.

Start writing or create a blog