Wikipedia:Tinget

(Omdirigert fra «Wikipedia:VP»)
Siste kommentar: for 17 timer siden av Trygve W Nodeland i emnet KI-genererte bilder
Arkiv
Arkiv
Tidligere arkiv

Før 2007, 2007, 2008, 2009, 2010, 2011, 2012, 2013, 2014, 2015, 2016, 2017, 2018, 2019, 2020, 2021, 2022, 2023, 2024, 2025

2026

januar, februar, mars, april
mai

Skjuling av brukernavn i sidehistorikk

rediger

Jeg oppdaget nå at dersom man skjuler et brukernavn i sidehistorikken, vil det fortsatt bli stående synlig i etterfølgende redigering, dersom etterfølgende redigering er en tilbakestilling. Eksempel kan sees her: https://no.wikipedia.org/w/index.php?title=Egg_(mat)&action=history: Jeg antar at en redigering som ble gjort på Egg (mat) kl. 10.31 i dag (dvs 4. mai 2026), ble gjort i sjikanøs hensikt. Ettersom jeg tror at redigereren ikke er identisk med personen som redigererens brukernavn tilhører. (Brukernavnet ble også lagt inn som "tulletekst" i vedkommende redigering, som @Togabriel årvåkent tilbakestilte sporenstreks. Da jeg hadde skjult brukernavnet + innhold, vises fortsatt dette brukernavnet i redigeringslinjen for Togabriels tilbakestilling kl. 10.31. Går det an å få skjuling av brukernavn til å "smitte over" til eventuelle etterfølgende tilbakestillingsredigeringslinjer i historikken? Jeg har ikke lyst til å skjule Togabriels redigering, for den var jo akkurat som den skulle .... Annelingua (diskusjon) 4. mai 2026 kl. 12:22 (CEST)Svar

Jeg har lagt merke til det samme, og uten å være alt for bastant mener jeg at tidligere ble brukernavnet skjult i påfølgende tilbakestilling. Kanskje det blir det dersom man gjør det i motsatt rekkefølge, først skjuler og tilbakestiller? Redigert: Det går jo ikke an, å skjule gjeldende revisjon … 🙄 Tilbakestilling _må_ skje først. ///Mvh. 1000mm (diskusjon) 4. mai 2026 kl. 12:28 (CEST)Svar
Jeg mener det ikke er noe galt i å skjule en godhjertet redigeringsforklaring dersom formålet er å skjule et brukernavn som er blitt automatisk lagt til. Jeg har gjort det med meg selv og andre tidligere. Det viktigste er bare å forklare under «Annen/ytterligere årsak». EdoAug (diskusjon) 4. mai 2026 kl. 12:29 (CEST)Svar
@EdoAug, mjo, men hvis det skjer automatisk (slik @1000mm mener det gjorde før, selv har jeg nok vært for sløv til å legge merke til hva som var tilstanden tidligere), så slipper vi å lene oss på en tillit til at alle som skjuler redigeringer, er påpasselige med å sjekke også tilbakestillingsredigeringer. Den tilliten har jeg for min del ikke til min egen åndsnærværelse ... jeg er temmelig sikker på at for meg vil det nok glippe i alle fall av og til. Og dessuten: hvis det går an å få inn noe automatikk her, blir ryddejobben mye kjappere og mer effektiv. (Kan det være at noen "sentralt" har skrudd litt vel mye under panseret i det siste? Jeg tenker på de høyremenyene som også har gjort et forsvinningsnummer ganske nylig. Jeg venter i lengsel på at de skal dukke opp igjen - i løpet av inneværende uke, var det ikke så?) Mvh Annelingua (diskusjon) 4. mai 2026 kl. 12:58 (CEST)Svar
Litt sidespor, men hva mener du med høyremenyene, og hvilket utseende bruker du? Jeg har dem her hos meg, men jeg bruker det «nye» standardutseendet, Vector 2022. EdoAug (diskusjon) 4. mai 2026 kl. 13:22 (CEST)Svar
@EdoAug, om høyremenyene: Jeg bruker nok det eldre Vector-skin-et. (Vector 10... og noe?) Husker at jeg prøvekjørte et nytt skin for noen år siden, ikke likte det (er digitalt vanedyr), og byttet tilbake. Jeg så i går at @1000mm for noen dager siden hadde tatt opp dette med menyer som var forduftet, og du var vel én av dem som svarte ham i den tråden? Jeg savner også høyremenyer på Torget, Tinget, o.s.v. - og har slått meg til ro med at de kommer til å komme tilbake snart (var det Jon Harald Søby som lenket til en tech-diskusjon om dette, tro?). Annelingua (diskusjon) 4. mai 2026 kl. 13:39 (CEST)Svar
Se gjerne Wikipedia:Administratorenes oppslagstavle/Arkiv 39#c-EPIC-20231203000100-90sveped-20231203000200. Dugnad 4. mai 2026 kl. 12:58 (CEST)Svar
Takk, @Dugnad! Der merker jeg meg anbefalingen Et tips når ni tilbakestiller redigeringer med upassende brukernavn, er å i stedet tilbakestelle manuelt. Da skrives ikke brukernavnet ut i redigeringsforklaringen og det blir mindre å skjule. Flott - men det er jo likevel ikke idiotsikkert å ha det slik, dersom det er mulig å skru inn en quick-fix. Annelingua (diskusjon) 4. mai 2026 kl. 13:01 (CEST)Svar
Det er dessuten så utrolig mye raskere å klikke "Tilbakestill"-lenken når man patruljerer, enn det er å åpne forrige / pre-vandalisert versjon, redigere denne, skrive redigeringsforklaring og lagre (og i verste fall få redigeringskonflikt så det tar enda lengre tid, om vandalen har publisert flere ganger i mellomtiden). I tillegg må man ved manuell tilbakestilling også markere vandaliseringen(e) som patruljert. Tilbakestillingslenken gjør dette automatisk. ///Mvh. 1000mm (diskusjon) 4. mai 2026 kl. 13:05 (CEST)Svar
@1000mm Nettopp. Man vil at det som går kjappest og krever færrest operasjoner, skal gi det optimale resultatet. :) Annelingua (diskusjon) 4. mai 2026 kl. 13:40 (CEST)Svar
Når jeg trykker «omgjør», så kommer det opp en diff. Da kan jeg fjerne den automatiske redigeringsforklaringen før jeg lagrer. Jeg trenger ikke lenger skrive en annen redigeringsforklaring (som f.eks. «Omgjøring», «Tilbakestilling» eller bare «Rv»), fordi det automatisk vil stå «(Tagg: Endringsomgjøring)» ved redigeringen. Dugnad 4. mai 2026 kl. 13:44 (CEST)Svar
"Tilbakestill" som patruljører har er raskere, det er ett klikk. "Omgjør" er også bare siste endring, mens "Tilbakestill" tar alle endringer fra siste bruker. "Omgjør" krever at man patruljerer det man gjør om, før eller etter "Omgjør" klikkes. "Tilbakestill" markerer som patruljert. ///Mvh. 1000mm (diskusjon) 4. mai 2026 kl. 14:22 (CEST)Svar
Poenget er jo at bruk av tilbakestillingsknappen fører til at det uakseptable brukernavnet vises. Jeg skriver hvordan man enkelt kan unngå det. Dersom to eller flere redigeringer skal tilbakestilles samtidig, kan man gjøre dette (eksempel). Dugnad 4. mai 2026 kl. 15:05 (CEST)Svar
Se Annelinguas foreløpig siste svar. ///Mvh. 1000mm (diskusjon) 4. mai 2026 kl. 15:42 (CEST)Svar
Kanskje noen kan ytre ønske om forbedret funksjonalitet på Phabricator. Dugnad 4. mai 2026 kl. 16:12 (CEST)Svar
Når det gjelder denne omgjøringen, så fjernet jeg ikke den automatiske redigeringskommentaren fordi jeg ikke oppfattet brukernavnet som problematisk. Dugnad 4. mai 2026 kl. 19:55 (CEST)Svar
1000mm skjulte imidlertid redigeringskommentaren med begrunnelsen: «Tilbakestilling som skjules for å skjule brukernavnet i forrige red.» Når det gjelder denne omgjøringen, så fjernet jeg ikke den automatiske redigeringskommentaren fordi jeg ikke tenkte på det i farta – jeg oppfattet heller ikke dette brukernavnet som problematisk. Burde jeg fjernet redigeringskommentaren hvis jeg hadde tenkt på det? 1000mm skjulte redigeringskommentaren, men denne gang med begrunnelsen: «Sjikane: Trusler». Det er selvfølgelig ikke korrekt! Dette begynner å bli håpløst. Dugnad 10. mai 2026 kl. 01:26 (CEST)Svar
Brukernavn, redigeringskommentar og versjon skjules, denne personen som har drevet med dette i et par år nå skal ikke få den gleden av å se noen digitale spor etter seg. Da skjules redigeringskommentar i neste redigering også, for å skjule brukernavnet. ///Mvh. 1000mm (diskusjon) 10. mai 2026 kl. 01:39 (CEST)Svar
Vennligst les innlegget mitt igjen: Skjule-begrunnelsen vedrørende min omgjøring er ukorrekt! Dugnad 10. mai 2026 kl. 02:00 (CEST)Svar
1000mm: Er det bare for å irritere, jf. , at du ikke vil endre skjule-begrunnelsen, eller har du en bedre grunn? Dugnad 10. mai 2026 kl. 14:40 (CEST)Svar
Forslag til quick fix:
  • Fjern brukernavnet i den automatiske redigeringskommentaren til den som får redigeringen sin omgjort, på translatewiki:MediaWiki:Undo-summary/nb. Der står det p.t. følgende: «Fjernet sideversjon [[Special:Diff/$1|$1]] av [[Special:Contributions/$2|$2]] ([[User talk:$2|diskusjon]])». Det kan forandres til f.eks.: «Fjernet sideversjon [[Special:Diff/$1|$1]]». Når man omgjør to eller flere redigeringer, vises ikke brukernavnet, jf. denne endringen. Da trenger det vel heller ikke vises når man omgjør én redigering.
  • Ved bruk av tilbakestillingsknappen står det p.t. følgende i den automatiske redigeringskommentaren: «Tilbakestilte endring [eller endringer] av X (bidrag) til siste versjon av Y». Det kan forandres til f.eks.: «Tilbakestilte endring(er) til siste versjon av Y».
Dugnad 11. mai 2026 kl. 20:16 (CEST)Svar

Stilmanualen, forslag til disposisjon

rediger

Et forslag til disposisjon for Stilmanualen er nå tilgjengelig på Wikipedia:Stilmanual (utkast). Disposisjonen er en samling skrivepunkt for viktig innhold, og i mange tilfeller vil et punkt kunne svare til en fremtidig overskrift. De følgende prinsippene har vært styrende:

  • Stilhjelp og ikke redigeringshjelp: Brødtekst og eksempler som er ren redigeringshjelp («hvordan») hører ikke hjemme i Stilmanualen. Artikkelstil omfatter fremstilling av innhold, språkstil og formatering.
  • Generalitet: Hovedsiden bør fokusere på anbefalinger som gjelder alle artikkelemner. Anbefalinger knyttet til et særskilt emneområde (biografi, geografi, biologi) bør omtales kort i sammenheng med generelle prinsipp eller flyttes til den aktuelle undersiden. Tilsvarende bør undersider for spesielle emner ikke gjenta generelle retningslinjer. Dette vil gjøre hele stilmanual-systemet mer oversiktlig, mer konsistent, mer balansert, mindre volumiøst.
  • Utvidbarhet: Forhåpentligvis vil strukturen gjøre det lettere i fremtiden å kunne plassere ytterligere stilhjelp.
  • Konservatisme: Totaliteten av anbefalinger skal være som i dag (hovedside og undersider), med eventuelt tillegg drøftet på Wikipedia-diskusjon:Stilmanual inkludert. Jeg har et par forslag presentert der nå, som også trenger kommentarer

For å kunne være trygg på at prinsippene og disposisjonen fungerer som grunnlag for å gå videre, ber jeg om uttrykt støtte.

Wikipedia-diskusjon:Stilmanual (utkast) har jeg et forslag til standard formatering av eksempler. Også her er jeg glad for kommentarer.

Det har frem til nå vist seg vanskelig å etablere entusiasme for redigering av Stilmanualen. Kanskje fordi innspillene mine har vært uklare. Kanskje har noen berøringsangst, etter tidligere endringsforsøk? Kanskje er noen glad så lenge Stilmanualen er så liten og uklar som mulig? Jeg kan bare håpe det ikke skyldes manglende interesse og likegyldighet. Endringsforslaget er ambisiøst, men de strukturelle problemene i dagens utgave er såpass store at det ikke nytter med flikking på enkelte setninger og avsnitt.

Er disposisjonen overveldende, så ta i det minste en titt på hovedoverskriftene! Jo flere som bidrar med synspunkt, jo bedre kan resultatet bli. Toba (diskusjon) 9. mai 2026 kl. 20:16 (CEST)Svar

KI-genererte bilder

rediger

Under henvisning til en konkret diskusjon på Torget (Wikipedia:Torget#KI-bilder), kunne jeg tenke meg her å innlede en generell diskusjon om en anbefaling om bruk av KI-genererte bilder på Wikipedia på norsk. Jeg ser for meg at teksten i en anbefaling kunne se ut omtrent som dette:

Det er akseptabelt i begrenset utstrekning å bruke KI-genererte bilder som illustrasjon i artikler om KI-programmer som overfører tekst til bilde. Utenfor temasider som omhandler kunstig intelligens kan KI-genererte bilder kun brukes i artikkelnavnerom i unntakstilfeller, etter forutgående diskusjon og konsensus for hvert enkelt bilde. Det er ikke tillatt å bruke et KI-generert bilde uten først å ha oppnådd konsensus på den tilhørende diskusjonssiden. Bruk av KI-behandlede bilder må dessuten diskuteres fra sak til sak. KI-genererte bilder må alltid være tydelig identifisert som sådan. Det er aldri tillatt å bruke et KI-generert bilde som erstatning for et manglende reelt bilde, for eksempel et portrett.

Trygve Nodeland (diskusjon) 10. mai 2026 kl. 16:34 (CEST)Svar

Apropos den konkrete diskusjon på Torget: Dersom det feks er kjent at KI lager anakronismer kan det illustreres med KI generert bilde. Hilsen Erik d.y. 10. mai 2026 kl. 17:13 (CEST)Svar
ps. Mente å si at da er det helt ok og på sin plass med KI generert bilde. Mens bildet av Lincoln i et fly er omvendt brukt ki til å illustrere begrepet anakronisme, det er mer I grenseland og bør ihht Trygves forslag diskuteres konkret. Hilsen Erik d.y. 10. mai 2026 kl. 17:17 (CEST)Svar
Jeg er usikker på hva det vil innebære at "KI lager anakronismer", men det er kanskje bare teori. Forslaget innebærer imidlertid at det også i et slik tilfelle skal skje en forhåndsdiskusjon som avklarer om det foreligger konsensus for å bruke bildet i det aktuelle tilfellet. Det er ikke innlysende at en artikkel om anakronisme skal ha en KI-generert illustrasjon, men vi kan, slik forslaget lyder, bli enige om dette. Det er viktig å minne om at en forhåndsdiskusjon også er et varsel. Også når man regner med et samtykke fra fellesskapet, må man derfor innlede en diskusjon - og få tilslutning. Det er utelukkende når KI-produksjon av bilder er selv artikkeltemaet, at man kan bruke slike bilder uten å søke konsensus først. Det vil være når man omtaler det jeg har kalt "KI-programmer som overfører tekst til bilde." Trygve Nodeland (diskusjon) 10. mai 2026 kl. 17:47 (CEST)Svar
Ja, bare et tenkt eksempel fra min side om at KI kan finne på å lage anakronismer (altså sette sammen ting fra ulike epoker), i såfall er et KI-generert bilde på sin plass for å illustrere et KI-relatert fenomen. Hilsen Erik d.y. 10. mai 2026 kl. 20:29 (CEST)Svar
Jeg tenker at det kanskje er mer hensiktsmessig å spesifisere hva vi absolutt ikke ønsker. F.eks KI-genererte bilder av faktiske fysiske ting som eksisterer i verden er ikke tillatt brukt, som f.eks bilder av folk, bygninger/steder, bilder, produkter osv osv. KI-genererte bilder av konsepter derimot, kan fint brukes i den grad det ikke finnes gode alternativer som ikke er KI-generert. Da tenker jeg f.eks en gaffel eller skje, en bøtte, en kontorstol osv osv. Altså ting som de aller fleste vet hva er, men som ikke er én spesifikk ting.
Jeg vil i alle fall anse det som uproblematisk å bruke KI-bilder som illustrasjon på artikler som omhandler slike mer abstrakte temaer, men da selvsagt forutsatt at det ikke alt finnes gode alternativer som ikke er KI-generert. TommyG (diskusjon) 11. mai 2026 kl. 08:19 (CEST)Svar
AI-genererte bilder for å illustrere begreper ble diskutert i fjor på denne tiden, Wikipedia:Tinget/Arkiv/2025/mai. Uten at det var en klar konklusjon, tror jeg holdningen der var at det er problematisk å bruke AI til å illustrere abstrakte begreper på en måte som ikke har belegg i kilder (altså at man kan sammenligne med bilder i kilder for å sjekke at det er riktig). Hilsen Erik d.y. 11. mai 2026 kl. 19:40 (CEST)Svar
Kan hende dette allerede er på plass, men det er vel trygt å si at man absolutt ikke skal ha såkalte «deepfakes», i hvert fall. Det blir jo som å dikte opp referanser. Woldstad (diskusjon) 11. mai 2026 kl. 09:24 (CEST)Svar
Jeg slettenominerte en rekke AI-genererte bilder av Putin og Trump tilbake i 2024 som til min overraskelse endte opp med å bli beholdt, men siden den gang har Commons:Com:AIIP kommet på plass og jeg ser de samme bildene har siden blitt slettet i en ny slettediskusjon. TommyG (diskusjon) 11. mai 2026 kl. 10:22 (CEST)Svar
Ja, det er ganske kort vei fra falske bilder av statsledere til falske nyheter, i tillegg til de integritetshensyn som Commons poengterer i reglene sine. Selv antar jeg det er politisk misbruk og fabrikering wikipedia må være mest på vakt mot, samt KI-bilder som generelt svekker tillit.
Som du sa, illustrasjoner av enkle begreper som f.eks stol trenger ikke være noe problem, men også her kan man vel gå for noe nært en tegning, og ikke naturtro bilder, for å gjøre det tydelig hva som er hva. Woldstad (diskusjon) 11. mai 2026 kl. 14:03 (CEST)Svar

Begrep som «KI-generert» og «KI-behandla» er for vage til bruk i et regelverk uten nærmere forklaring. KI er nå integrert i mange bildebehandlingsprogram og også i kameraer. Jeg trur det i dag kreves spesialkompetanse eller spesialutstyr for å kunne produsere fotografier uten at KI er inne i bildet. Et forslag bør også ta høyde for at WP også trenger bilder som skapes like godt av en maskin som av et menneske, for eksempel grafiske framstillinger av matematiske forhold. Om jeg vil ha et kakediagram av Stortingets parti-sammensetning, så bør det vel være greit at jeg lar KI generere det, forutsatt at jeg sjekker at intelligensen bruker et korrekt tallgrunnlag. Hilsen GAD (diskusjon) 11. mai 2026 kl. 09:34 (CEST)Svar

Den siste problemstillingen din kan anses for å i tilstrekkelig grad dekkes av distinksjonen bilder vs figurer. SNL: «Bilde er en synlig representasjon som gjengir vesentlige karakteristiske trekk ved en person, en gjenstand, en situasjon eller lignende.» En nærmere avklaring av hva som menes med «KI-generert» og «KI-behandla» bør være svært kortfattet, i stor grad vil det være situasjonsavhengig og dermed dekkes av kravet til diskusjon. Viser også til diskusjonen Tinget:AI-genererte bilder i artiklene og Nodelands KI-ressursside, særlig den mht den engelskpråklige tilnærmingen. Havre2020 (diskusjon) 11. mai 2026 kl. 13:39 (CEST)Svar
Mitt forslag retter seg mot det som faller innenfor definisjonen bilder, slik Havre2020 viser til den. Vi kan derfor gjerne uttrykkelig avgrense mot figurer.
«KI-genererte bilder» oppfatter jeg som bilder frembragt direkte fra tekst, uten å være en umiddelbar gjengivelse av et reelt objekt, et motiv, slik fotografiet er. Fotografiet har utviklet seg siden sølvfilmen, men vi forstår at det er et eller annet mekanisk opptaksmedium som fanger lyset som det eksponeres for. Men om det fanges ved hjelp av sølv eller batteri, er ikke avgjørende.
At teknikken som brukes til å lagre det motivet som faktisk eksisterer og som er valgt av et menneske er mekanisk, vil ikke gjøre bildet til «KI-skapt». Bildet er menneskeskapt.
Vi bør derfor kanskje holde på begrepet KI-generert som er innarbeidet som uttrykk for det som helt og holdent er «frembrakt, skapt ved hjelp av KI, kunstig intelligens.» Se NAOB. Men vi kan vurdere en presisering av at det jeg kaller opptaksmediet godt kan være kunstig eller mekanisk. Det må det jo nesten være, for å være varig. --Trygve Nodeland (diskusjon) 11. mai 2026 kl. 15:00 (CEST)Svar
Jeg er helt enig i hva du tenker om begrepet «generert» Trygve, at man fremskaffer et bilde ut av ingenting ved hjelp av en tekststreng (prompt).
GAD trekker inn KI-behandling – som ikke er nevnt i trådstart – det blir litt annerledes, enten det er automatikk innebygd i opptaksenheten, en funksjon i et bildebehandlingsprogram eller at man kombinerer et ekte bilde og en prompt. Forbedring av kontraster i et foto er helt normalt, og noe fotografer gjør hele tiden. HDR er også en veldig vanlig, og mye brukt teknikk for at fotoet skal gjenspeile det øyet er i stand til å se. Å sette sammen flere bilder for å skape et bredere bilde og videre horisont enn hva som er mulig med ett bilde – enten dette skjer automagisk inne i kameraet eller manuelt på datamaskinen – er så klart innafor. Direkte forfalskninger, enten det er deep fakes eller manuell fotofikling, er selvsagt ikke greit i et leksikon.
Det må altså være noen grenser for hvor stor grad av bildemanipulasjon en tillater, enten den skjer ved KI eller på andre måter. Her tror jeg det er vanskelig eller umulig å trekke opp en eksakt grense, også fordi vi ikke vet hva teknologien bringer i framtida. En generell regel om ikke å tillate det vi definerer som en regelrett forfalskning, og deretter individuell vurdering av bilder er nok både det enkleste og mest fornuftige.
For øvrig enig når det gjelder figurer og infografikk, så lenge KI mates med kvalitetssikrede data, og man benytter menneskelig intelligens til å verifisere at den KI-genererte representasjonen av dataene stemmer så er det i orden. Veldig enkelt som du skriver med en avgrensning mot figurer. Det er illustrasjoner som er virkelighetstro eller en form for avbilding vi må unngå. ///Mvh. 1000mm (diskusjon) 11. mai 2026 kl. 16:23 (CEST)Svar
I mai fjor ble forbedring av gamle bilder diskutert og essensen av den diskusjonen er vel at det på et punkt er problematisk fordi man til slutt ikke vet om den forbedrete versjonen fremstiller noe annet enn originalen Wikipedia:Tinget/Arkiv/2025/mai. Hilsen Erik d.y. 11. mai 2026 kl. 19:45 (CEST)Svar
Ja, jeg husker den diskusjonen. De eksemplene som ble brukt var ganske så grelle, det er fullt mulig å få kolorert et svart/hvitt-bilde uten at ansiktstrekk endres og «flates» ut som var tilfelle i de eksemplene. Se f.eks.
En helt annen sak er at det neppe er ønskelig i en leksikonsammenheng å benytte seg av det. Så var det heller ikke kunstig fargelegging av svart/hvite bilder jeg siktet til i mitt innlegg, men bildeforbedringer som så å si alle fotografer gjør i dag før de publiserer bildene sine.
Moderat og fornuftig bruk av bildebehandling (KI eller ei) er det helt umulig å legge ned et forbud mot. Dersom jeg tar et bilde med mitt flere år gamle speilreflekskamera uten noe KI i kameraet, overfører det til datamaskinen og behandler det i Photoshop e.l. for så å laste opp kun den redigerte utgaven på Commons – uten metadata i bildefil som avslører fotofikling – vil det i enkelte tilfeller ikke være mulig å si at bildet er kunstig forbedret, og i hvert fall ikke mulig å si om det er kunstig forbedret med KI eller andre verktøy. All den tid originalfila aldri er i befatning med noe som helst online kan en ikke sammenligne med det heller.
Poenget mitt er at vi kan ikke nedlegge forbud mot noe vi ikke vil klare å håndheve. Den typen forbedring som vi må akseptere kan ikke ha begrensning på hvilket verktøy som benyttes, det vil vi ikke kunne vite uansett. ///Mvh. 1000mm (diskusjon) 11. mai 2026 kl. 20:53 (CEST)Svar
Enig i at det avgjørende ikke er hvilket verktøy som brukes, ChatGPT, Grok, Photoshop etc. Men skal vi unnlate å ha forbud bare fordi det er vanskelig å håndheve? Hilsen Erik d.y. 11. mai 2026 kl. 22:45 (CEST)Svar
En liten korreksjon, KI-behandlede bilder ble også nevnt i trådstart: «Bruk av KI-behandlede bilder må dessuten diskuteres fra sak til sak.» Forøvrig enig i din analyse, 1000mm. Havre2020 (diskusjon) 11. mai 2026 kl. 22:35 (CEST)Svar
I stand corrected, det er nevnt ja, ser jeg. ///Mvh. 1000mm (diskusjon) 11. mai 2026 kl. 22:39 (CEST)Svar

Det kan se ut som vi i hovedsak er enig om at det trengs noen modifikasjoner til den første teksten fra Trygve. Jeg har likevel lyst til å nevne at kolorering av svart-hvitt-bilder neppe er prinsipielt forskjellig fra den dekoloreringa som svart-hvitt-bildet i utgangspunktet er. Det er jo ikke slik at alle folk før 1930 var grå i huden. Hilsen GAD (diskusjon) 12. mai 2026 kl. 09:16 (CEST)Svar

Det blir for meg en veldig merkelig påstand. Det er åpenbart prinsipielle forskjeller mellom den fjerningen av fargene som sort/hvit-fotografering implisitt representerer, og det å legge på igjen mer eller mindre vilkårlig valgte farger på et sort/hvit-bilde. Det er åpenbart for alle at et sort/hvit-bilde ikke er representativt for det fargespekteret som eksisterte da bildet ble tatt. Et fargelagt sort/hvit-bilde derimot kan i ytterste grad være umulig å skille fra et fargefoto, men da uten at den som ser bildet har noe som helst måte å forstå at fargene i bildet er i bunn og grunn, en løgn. TommyG (diskusjon) 12. mai 2026 kl. 11:16 (CEST)Svar
Jeg takker for fin respons og tenke over et nytt forslag. Men føst må jeg få det på teskje fra GAD, akkurat hva han mener om likheten mellom kolorering av svart-hvitt-bilder og svart-hvitt bildet, Hva skal det han sier føre til for oss i denne sammenhengen? Vi kan ikke avvise alle sort-hvitt bilder fordi de ikke gir et fullstendig autentisk uttrykk. Dersom koloreringen skjer etter at fotografiet er tatt, bør det vel opplyses? Da jukser vi. Et fotografiapparat fordreier vel alltid fargene. I min familie hadde alle de fotograferte røde øyne. Men at teknikken ikke er god nok, er vel ikke noen generell grunn til å avvise bildene. Vi kan heller ikke avvise produkter bare fordi de tilsynelatende er «riktige». Jeg vil ikke avvise at det i enkelte tilfeller kan være grunn til å diskutere bruken av KI-bearbeidede eller behandlede fotografier. Det kommer vel an på om resultatet må regnes som et falsum eller ikke? At man ikke alltid klarer å oppdage alle feilene, betyr ikke at man skal akseptere dem, bare at de må rettes når de oppdages. En viktig funksjon for regler i slike sektorer, er at de må tvinge oss til å tenke. --Trygve Nodeland (diskusjon) 12. mai 2026 kl. 17:14 (CEST)Svar
Jeg skjønner motstanden mot KI (både i tekst og bilde). Jeg høtw forleden et foredrag. Det var svært interessant, men stort sett alle lydbildene var åpenbart KI-genererte – glorete og overfylt av sære detaljer. Det var veldig forstyrrende og egentlig lite illustrerende. Men denne feilen hadde vært like stor om jeg hadde handtegna de samme bildene. Er det slik at fordi vi nå har fått en teknologi som gjør det raskt og effektivt å lage dårlige løsninger, så skal vi «forby» all bruk av teknologien? Det virker ikke som det er tanken, og det er sannsynligvis heller ikke mulig. Da må vi ha et større presisjonsnivå i diskusjonen. Det er her spørsmålet om kolorering kan fungere som et tankeeksperiment.
Et svart-hvitt-foto av et rødt hus gir ei usann framstilling av huset. Jeg kan bruke et bildebehandlingsprogram til å farge huset rødt. Det gir ikke den heilt nøyaktige rødfargen (det gjør nok ikke et fargefoto heller), men framstillinga blir mer korrekt. Nyere utgaver av bildebehandlingsprogrammet kan identifisere huset og respondere på en ordre som «farg huset rødt», og rødfargen kan tilpasses hvordan sola faller inn på bildet. Resultatet kan modifiseres med nye ordrer, eller det kan justeres for hand. Bildet blir etter hvert mer og mer likt virkeligheta. (Jeg har ikke prøvd dette, bare lest produktomtaler.)
Skal vi være prinsipielt mot dette, fordi det er brukt KI i prosessen? Det er klart at noen kan be om at huset farges blått eller illustreres av Munch. Men er det galt å bruke en teknologi til å få riktigere resultater bare fordi den også kan brukes til å lage noe dårligere? Hilsen GAD (diskusjon) 13. mai 2026 kl. 10:36 (CEST)Svar
GAD stiller ovenfor spørsmålet det er «galt å bruke en teknologi til å få riktigere resultater bare fordi den også kan brukes til å lage noe dårligere?» Dette er en problemstilling jeg ikke har engasjert meg i, i denne materien. KI kan vel brukes til så mangt, men det utgjør neppe et selvstendig grunnlag for ikke å bruke denne teknologien her. Det jeg vil si er at Wikipedia bør vokte seg mot å søke å oppnå riktige resultater på egenhånd, og det vil jeg kommentere nedenfor.
Slik jeg ser det beror spørsmålet om vi skal tillate KI-genererte bilder på risikoen for at bestemte normer overtres. Normene kan være loven, den som verner om opphavsretten, eller de lover som verner om individets integritet. Det kan være Wikipedias normer for nøytralitet, verifikasjon eller forbudet mot originalforskning. Et KI-produsert bilde må vurderes mot disse normene, og kanskje flere, uansett på hvilket kvalitetsnivå bildet ligger.
Et KI-generert bilde er stjålet fra andre bilder. KI-agenten kan ellers ikke vite hvordan bildets objekt ser ut. I motsetning til fotografen er det ikke slik at KI-agenten ser eplet ute i naturen, og drar hjem for å bearbeide sine egne inntrykk. Da kan vi ikke vite om de bildene som vår KI-agent trener på, er beskyttet av opphavsrett eller ikke. Når et menneske fotograferer et eple, vil det være sikker på at det selv har opphavsretten. Risikoen for brudd på opphavsrett er altså et hinder for å bruke KI-genererte bilder.
Men kan ikke opphavsretten oppstå ved bruk av KI? Den alminnelige oppfatning er at den ikke kan det. Det er ikke nok å være god til å bruke KI, ettersom frembringelsesprosessen foregår i maskinen, ikke i menneskets hode.
Alle mennesker har dessuten enerett til sitt eget bilde. Her finnes det unntak, men selv ikke kjendiser kan fotograferes over alt. Dermed vil de heller ikke kunne plasseres der av en KI-agent. Ved å bruke et utvalg av fotografier, vil man også risikere å plassere en person i offentligheten i en helt annen sammenheng, fordi KI-produktet likner på et levende menneske.
Dersom vi isteden leier en kunstner til å lage et portrett, vil vi omgå denne problemstilling. Det sies at WMF gjorde det, men at disse portrettene ble lite brukt. Og hva har nå WMF med å redigere på Wikipedia eller Commons? Wikipedia på engelsk har visstnok en regel om at en tegning uansett bør være virkelighetsnær.
Dersom man blir stadig flinkere i å fargelegge bildet av et sort-hvitt bilde av en låve, er det kanskje slik at det etter hvert blir «mer og mer likt virkeligheta», som GAD hevder. Men hvordan vet vi egentlig at bildet nå «gjengir» virkeligheten, slik den var? På Commons gjelder ikke regler for original forskning, men det gjør det på Wikipedia. Vil ikke da denne fargeleggingen stride mot denne helt grunnleggende regelen? Det synes jeg at reglene for bruk av KI-genererte bilder bør tvinge oss til å gjennomtenke.
Noe KI-bruk i verktøyets innretning må kunne aksepteres. Vi aksepterer autofokus på kameraet, slik at objektet blir skarpt i konturene.
Wikipedia skal gjengi etablert kunnskap om virkeligheten, ikke skape egne bilder.
Det finnes også andre hensyn man bør overveie, når man tenker igjennom disse spørsmålene, for eksempel etiske. Finnes det sosiale og kulturelle bias i KI-programmene. Blir de ansatte i de virksomheter som utvikler KI-programmene tilstrekkelig godt betalt?
I mitt forslag har jeg konsentrert meg om bilder og ikke regulert spørsmålet om bruk av figurer. Jeg ville imidlertid svare på dette, før jeg tenkte videre på en reformulering av forslaget.--Trygve Nodeland (diskusjon) 13. mai 2026 kl. 16:54 (CEST)Svar
Jeg mener det er en forskjell på å bruke et sort hvitt foto som laget for 100 år siden og tlføre en rødfarge I ettertid. Selv man har holdepunkt for at huset var rødt er det likefullt en formodning om hvordan det artet seg og ikke fakta. Hilsen Erik d.y. 13. mai 2026 kl. 17:55 (CEST)Svar
Setningen «Bruk av KI-behandlede bilder må dessuten diskuteres fra sak til sak» i forslaget har jeg ikke kommentert. (Denne og andre deler av forslaget har jeg latt meg inspirere fra vedtakene på Wikipedia på tysk. Jeg har også sett hen til et fordrag som jeg har vist til på wp:ki nemlig dette: AI Images in Wikipedia: a Battle for Reality!. Men, dette er altså noe jeg mener - for tiden.) Til den siterte setningen vil jeg si at uttrykket «KI-behandlede» bør presiseres bedre, men det jeg sikter til er at det dreier seg om er menneskelig kuraterte bilder (kuratert=trykke på utløserknappen), men slik at resten styres av mekanikken. Man kan tenke seg at utviklingen av kameratet går så langt at mennesket reelt sett har mistet styringen over teknikken. (Man sender i været en drone som i skogen finner en svær elg i solnedgangen.) Når vi kommer så langt bør vi behandle dette også.
Så vil jeg i tillegg si at det i en materie som dette, og som i svært mange andre områder, er et poeng å lage reglene som standarder, ikke detaljerte oppregninger. Den tekniske og rettslige utvikling stanser ikke, og det kan tenkes at vi stadig må revidere vår oppfatning og praksis i liberal eller restriktiv retning. --Trygve Nodeland (diskusjon) 14. mai 2026 kl. 09:11 (CEST)Svar
Jeg mener det er tvilsomt å ta seg friheter med feks å fargelegge hus på gamle sort-hvitt-foto med formodning om at huset hadde sånn eller slik rødfarge. I det minste må det fremgå at fargene er tilført i ettertid, jfr Tommys replikk ovenfor. Greske og romerske skulpturer fra antikken var originalt ikke grå-hvite slik vi ser dem i museum, men malt i friske muligens naturlige farger - det er likevel ikke OK at vi på egen hånd bruker KI til justere fotografier av skulpturene slik de formodentlig eller nokså sikkert så ut for 2000 år siden. Hilsen Erik d.y. 15. mai 2026 kl. 16:30 (CEST)Svar
Ved forrige århundreskifte var det ikke uvanlig at man håndkolorerte foto, eller deler av det. Hva er forskjellen på håndkolorering og digital kolorering? Ved digital kolorering, har det betydning om en person bruker «knapper og spaker» i Photoshop til å justere fargene eller om det er KI som gjør det?
Jeg forutsetter selvsagt at all bearbeiding som er mer enn kontrastjustering, fjerning av støy, røde øyne osv. tydelig merkes. ///Mvh. 1000mm (diskusjon) 15. mai 2026 kl. 18:53 (CEST)Svar

KI-behandlede bilder av personer

rediger

Verdt å merke seg i denne sammenhengen er Commons sin retningslinje vedrørende dette når det gjelder bilder av personer:

Altered images

Generative artificial intelligence is unable to reliably upscale small photographs or colorize black and white photographs without introducing significant errors or fabrications.

Photographs of people that are subsequently altered by AI are not allowed on Commons unless all of the following criteria are met:

The original, unaltered image is linked in the altered image's {{Information}} template (or other comparable template). This can be fulfilled either by uploading the original image to Commons and including in the "other versions" field, or by linking to the external source hosting it in the "source" field. The file is tagged with {{AI upscaled}} or {{AI modified}}. These requirements do not apply to the use of AI tools for genuinely minor photo-editing tasks such as noise reduction or dust removal if performed by AI tools specifically designed for those tasks. General-purpose chatbots like ChatGPT are unfit for this purpose.

Altered images must also be within the project's scope and can't be derivative works of non-free copyrighted images.

Teksten ovenfor er ett av avsnittene i c:Commons:AI images of identifiable people. Det kan se ut som KI-behandling kun gjelder bilder av personer, da jeg ikke finner noen lignende tekst gjeldende for bilder generelt. Å «fargelegge» et hus vil altså være tillatt innenfor Commons regelverk per i dag. (Med forbehold om at det kan være en retningslinje jeg ikke har funnet ved søk der.) ///Mvh. 1000mm (diskusjon) 15. mai 2026 kl. 15:52 (CEST)Svar

Det er fine henvisninger dette. Men den regel at mennesker skal behandles særskilt, betyr neppe at det er fritt frem i alle andre tilfeller av billedmanipulasjon. Nå er det selvsagt slik at Commons har et litt annet rammeverk enn Wikipedia. Der tillater de for eksempel OR, i den forstand at de tillater å lage figurer og grafer - som vi bruker på Wikipedia. Men en av begrensningene finnes også bak lenken til project's scope, nemlig at bruken skal være «educational» og at «The expression "educational" is to be understood according to its broad meaning of "providing knowledge; instructional or informative".» Dersom vi fargelegger låven til slik vi antar den så ut, er vel dette hverken å formidle kunnskap, og heller instruktivt eller informativt? Når vi mangler en puslespillbrikke i vår logo, må den stå åpen, vi kan ikke klippe til en på kjøkkenbordet. Trygve Nodeland (diskusjon) 15. mai 2026 kl. 17:03 (CEST)Svar
Jeg mente ikke det var fritt frem ved bruk i Wiki-sammenheng, men at Commons ser ut til at de ikke har regler mot det. Imidlertid har de regler mot det når det gjelder personer, og siden alle mediefiler befinner seg der må vi som et minimum følge de reglene. Det var ment som et innspill i retning av at vi kan ikke bestemme oss lokalt for videre rammer når det gjelder personer, for da bryter vi Commons-retningslinjer.
Hva hvis man vet at låven var trønderrød da? Det kan være fra beskrivelser, nyere foto av sammenrast låve hvor maling er synlig, materialrester osv. Forutsetter selvsagt kilder på dette, ikke OR. ///Mvh. 1000mm (diskusjon) 15. mai 2026 kl. 18:59 (CEST)Svar
Jeg er generelt skeptisk til å endre foto, unntak kan muligens være med svært gode og presise kilder som feks angir eksakt farge. Det er grunnleggende forskjell på et svart-hvitt-foto (åpenbart ikke korrekt gjengivelse av fargene 100 år siden) og et svart-hvitt foto som er oppgradert/tilført med farger i ettertid (via KI eller annet verktøy); det er ikke symmetri mellom disse tingene. Uansett må "manipulerte" bilder merkes som det. Det finnes tilsvarende mange håndkolorerte bilder (min bestemor hadde slike på veggen), de bør også merkes som det selv om kolorering er gammel. Hilsen Erik d.y. 15. mai 2026 kl. 19:49 (CEST)Svar
Det er en forutsetning at den slags redigeringer, uansett om det er gjort slik eller sånn, er merket, det er jeg helt enig i. ///Mvh. 1000mm (diskusjon) 15. mai 2026 kl. 20:36 (CEST)Svar

Forslag II til tekst

rediger

Jeg viser til diskusjonen ovenfor, og fremlegger en ny tekst til diskusjon.

«Bruk av KI-genererte bilder kan komme i konflikt med blant annet Wikipedias egne regler for originalforskning, verifiserbarhet og nøytralt ståsted. De kan også komme til å krenke andres opphavsrett og levende menneskers integritet. Det siste kan skje ved tilsiktet eller utilsiktet likhet mellom det KI-generte bildet og et levende menneske. Med «bilder» menes i denne sammenhengen etterlikninger av tegninger, malerier eller fotografier av reelle objekter. Utenfor dette bilde-begrepet faller KI-produserte figurer og andre grafiske uttrykk for statistikk og annet tallmateriale.
KI-genererte bilder kan av grunner som nevnt ovenfor, kun i begrenset utstrekning brukes i artikler om temaet generativ kunstig intelligens, og om dataprogrammer som skaper slike bilder. Utenfor artikler som nevnt kan KI-genererte bilder bare brukes unntaksvis, og kun etter forutgående diskusjon og konsensus på artikkelens diskusjonsside, for hvert enkelt bilde. Det er aldri tillatt å bruke et KI-generert bilde som erstatning for et manglende autentisk bilde, for eksempel et portrett.
KI-genererte bilder må alltid være tydelig merket som KI-produserte. Hensynet til Wikipedias grunnleggende regler, kan gjøre det aktuelt fra sak til sak å diskutere også bruken av KI-behandlede bilder. Med KI-behandlede bilder menes bilder som i utgangspunktet er autentiske, men som senere er endret ved bruk av kunstig intelligens.»

(Jeg regner ikke med at forslaget blir det siste!) Trygve Nodeland (diskusjon) 16. mai 2026 kl. 09:21 (CEST)Svar

Bra dette. Men prinsippet burde vel gjelde andre former for bearbeiding eller generering? Forsiktighet skissert burde vel gjelde uansett hvilke verktøy som brukes? Bare en tanke. Hilsen Erik d.y. 16. mai 2026 kl. 09:48 (CEST)Svar
Når vi taler om kunstig intelligens, og i særdeleshet generativ kunstig intelligens tenker vi oss kanskje at vi setter i gang noe som nødvendigvis må undersøkes grundig før det postes i artiklene. Vi kan nå hurtigslette tekster som er KI-generert og likedan maskinoversatt stoff som ikke er bearbeidet. Det er det maskinelle leddet i produksjonen som gjør tingene vanskelig, og det er den produksjonsmåten jeg har satt meg fore å foreslå en regel for. Så kan man si at også tegninger som blir kolorert med hånd i 2026 også er problematiske, men det er et annet problem! Vi må gjerne få regler for dette også, men da bør vi kanskje behandle det særskilt. Trygve Nodeland (diskusjon) 16. mai 2026 kl. 11:24 (CEST)Svar