Hopp til innhold

Digital filmproduksjon

Fra Wikipedia, den frie encyklopedi

Digital kinematografi er prosessen med å fange (ta opp) en spillefilm ved hjelp av digitale bildesensorer i stedet for filmrull. Etter hvert som digital teknologi har forbedret seg de siste årene, har denne praksisen blitt dominerende. Siden 2000-tallet har de fleste filmer over hele verden blitt både fanget og distribuert digitalt.

Mange leverandører har brakt produkter til markedet, inkludert tradisjonelle filmkameraleverandører som Arri og Panavision, samt nye leverandører som Red, Blackmagic, Silicon Imaging, Vision Research og selskaper som tradisjonelt har fokusert på forbruker- og kringkastingsvideoutstyr, som Sony, GoPro og Panasonic.

Per 2017 var profesjonelle 4K digitale kameraer omtrent likeverdige med 35mm film når det gjelder oppløsning og dynamisk omfangskapasitet; digital opptak har imidlertid ikke lenger et annerledes utseende enn film. Noen filmskapere foretrekker fortsatt å bruke filmbildeformater for å oppnå de ønskede resultatene.[1]

Grunnlaget for digitale kameraer er metalloksid-halvleder (MOS) bildesensorer.[2] Den første praktiske halvleder-bildesensoren var charge-coupled device (CCD),[3] basert på MOS-kondensatorteknologi.[2] Etter kommersialiseringen av CCD-sensorer på slutten av 1970-tallet til tidlig 1980-tallet, begynte underholdningsindustrien sakte å gå over til digital avbildning og digital video over de neste to tiårene.[4] CCD ble etterfulgt av CMOS aktiv-piksel-sensor (CMOS-sensor),[5] utviklet på 1990-tallet.[6][7]

På slutten av 1980-tallet begynte Sony å markedsføre konseptet "elektronisk kinematografi", ved bruk av deres analoge Sony HDVS profesjonelle videokameraer. Innsatsen møtte svært lite suksess. Dette førte imidlertid til en av de tidligste høydefinisjons videoinnspilte spillefilmene, Julia and Julia (1987).[8]

Rainbow (1996) var verdens første film som benyttet omfattende digital etterbehandlingsteknikker.[9] Filmet helt med Sonys første Solid State Electronic Cinematography-kameraer og med over 35 minutter med digital bildebehandling og visuelle effekter, ble all etterbehandling, lydeffekter, redigering og musikk fullført digitalt. Det digitale høydefinisjonsbildet ble overført til en 35mm negativ via en elektronstråleopptaker for kinovisning.

Den første digitalt filmede og etterbehandlede spillefilmen var Windhorse, skutt i Tibet og Nepal i 1996 på Sony DVW-700WS Digital Betacam og prosumer Sony DCR-VX1000. Offline-redigeringen (Avid) og online-etterbehandlingen og fargearbeidet (Roland House / da Vinci) var også helt digitale. Filmen, overført til 35mm negativ for kinovisning, vant Best U.S. Feature på Santa Barbara Film Festival i 1998.

I 1997, med introduksjonen av HDCAM-opptakere og 1920 × 1080 pikslers digitale profesjonelle videokameraer basert på CCD-teknologi, begynte ideen, nå omdøpt til "digital kinematografi", å få fotfeste i markedet.[citation needed] Innspilt og utgitt i 1998, anses The Last Broadcast av noen for å være den første spillefilmen som er skutt og redigert helt på forbrukernivå digitalt utstyr.[10]

I mai 1999 utfordret George Lucas filmens overlegenhet som filmskapingsmedium for første gang ved å inkludere opptak filmet med høydefinisjons digitale kameraer i Star Wars: Episode I – The Phantom Menace. Det digitale opptaket blandet seg sømløst med opptakene skutt på film, og han kunngjorde senere samme år at han ville filme oppfølgerne utelukkende på høydefinisjons digital video. Også i 1999 ble digitale projektorer installert i fire kinoer for visning av The Phantom Menace.

I mai 2000 begynte hovedfotograferingen av Vidocq, som ble regissert av Pitof, skutt helt med et Sony HDW-F900-kamera, og videoen ble utgitt i september året etter. Ifølge Guinness World Records er Vidocq den første spillefilmen i full lengde filmet i digital høy oppløsning.[11]

I juni 2000 begynte hovedfotograferingen av Star Wars: Episode II – Attack of the Clones, skutt helt med et Sony HDW-F900-kamera som Lucas tidligere hadde erklært. Filmen ble utgitt i mai 2002. I mai 2001 ble Once Upon a Time in Mexico også skutt i 24 bilder per sekund høydefinisjons digital video, delvis utviklet av George Lucas ved bruk av et Sony HDW-F900-kamera,[12] etter at Robert Rodriguez ble introdusert for kameraet på Lucas' Skywalker Ranch-anlegg mens han redigerte lyden for Spy Kids. En mindre kjent film, Russian Ark (2002), ble også skutt med samme kamera og var den første tapeless digitale filmen, tatt opp på HDD i stedet for tape.[13][14]

I 2009 ble Slumdog Millionaire den første filmen skutt hovedsakelig digitalt som ble tildelt Oscar for beste filmfotografi.[15] Den mest innbringende filmen i kinohistorien, Avatar (2009), ble ikke bare skutt på digitale kameraer, men gjorde også hovedinntektene på billettkontoret ikke lenger gjennom film, men digital projeksjon.

Store filmer[n 1] skutt på digital video tok over for de skutt på film i 2013. Siden 2016 har over 90% av store filmer blitt skutt på digital video.[16] Fra og med 2017 er 92% av filmer skutt digitalt.[17] Bare 24 store filmer utgitt i 2018 ble skutt på 35mm.[18] Siden 2000-tallet har de fleste filmer over hele verden blitt både fanget og distribuert digitalt.[19][20][21]

I dag tilbyr kameraer fra selskaper som Sony, Panasonic, JVC og Canon en rekke valg for å skyte høydefinisjons video. I den øvre enden av markedet har det dukket opp kameraer rettet spesifikt mot det digitale kinomarkedet. Disse kameraene fra Sony, Vision Research, Arri, Blackmagic Design, Panavision, Grass Valley og Red tilbyr oppløsning og dynamisk område som overgår tradisjonelle videokameraer, som er designet for de begrensede behovene til kringkastingsfjernsyn.

Teknologi

[rediger | rediger kilde]

Digital kinematografi fanger spillefilmer digitalt i en prosess som ligner digital fotografering. Selv om det er en klar teknisk forskjell som skiller bildene fanget i digital kinematografi fra video, brukes begrepet "digital kinematografi" vanligvis bare i tilfeller der digital opptak erstatter filmopptak, som ved innspilling av en spillefilm. Begrepet brukes sjelden når digital opptak erstatter videoopptak, som ved direktesendte TV-programmer.

Digitale kinematografikameraer fanger digitale bilder ved hjelp av bildesensorer, enten charge-coupled device (CCD)-sensorer eller CMOS aktiv-piksel-sensorer, vanligvis i en av to konfigurasjoner. Enkeltbrikke-kameraer designet spesifikt for det digitale kinematografimarkedet bruker ofte en enkelt sensor (mye likt digitale fotokameraer), med dimensjoner som ligner i størrelse på en 16 eller 35 mm filmramme eller til og med (som med Vision 65) en 65 mm filmramme. Et bilde kan projiseres på en enkelt stor sensor på nøyaktig samme måte som det kan projiseres på en filmramme, så kameraer med dette designet kan lages med PL-, PV- og lignende fatninger, for å kunne bruke det brede spekteret av eksisterende høykvalitets kinematografilinser. De store sensorene lar også disse kameraene oppnå samme grunne dybdeskarphet som 35 eller 65 mm kinematografiske filmkameraer, noe mange filmfotografer anser som et essensielt visuelt verktøy.[23]

Professional raw video recording codecs include Blackmagic Raw, Red Raw, Arri Raw and Canon Raw.

Video formats

[rediger | rediger kilde]

Unlike other video formats, which are specified in terms of vertical resolution (for example, 1080p, which is 1920×1080 pixels), digital cinema formats are usually specified in terms of horizontal resolution. As a shorthand, these resolutions are often given in "nK" notation, where n is the multiplier of 1024 such that the horizontal resolution of a corresponding full-aperture, digitized film frame is exactly  pixels. Here the "K" has a customary meaning corresponding to the binary prefix "kibi" (ki).

For instance, a 2K image is 2048 pixels wide, and a 4K image is 4096 pixels wide. Vertical resolutions vary with aspect ratios though; so a 2K image with an HDTV (16:9) aspect ratio is 2048×1152 pixels, while a 2K image with a SDTV or Academy ratio (4:3) is 2048×1536 pixels, and one with a Panavision ratio (2.39:1) would be 2048×856 pixels, and so on. Due to the "nK" notation not corresponding to specific horizontal resolutions per format a 2K image lacking, for example, the typical 35mm film soundtrack space, is only 1828 pixels wide, with vertical resolutions rescaling accordingly. This led to a plethora of motion-picture related video resolutions, which is quite confusing and often redundant with respect to the relatively few available projection standards.

All formats designed for digital cinematography are progressive scan, and capture usually occurs at the same 24 frame per second rate established as the standard for 35mm film. Some films such as The Hobbit: An Unexpected Journey have a High Frame Rate of 48 fps, although in some theatres it was also released in a 24 fps version which many fans of traditional film prefer.

The DCI standard for cinema usually relies on a 1.89:1 aspect ratio, thus defining the maximum container size for 4K as 4096×2160 pixels and for 2K as 2048×1080 pixels. When distributed in the form of a Digital Cinema Package (DCP), content is letterboxed or pillarboxed as appropriate to fit within one of these container formats.

In the early years of digital cinematography, 2K was the most common format for digitally acquired major motion pictures however, as new camera systems gain acceptance, 4K is becoming more prominent. The Arri Alexa captured a 2.8k image. During 2009 at least two major Hollywood films, Knowing and District 9, were shot in 4K on the Red One camera, followed by The Social Network in 2010. As of 2017, 4K cameras are now commonplace, with most high-end films being shot at 4K resolution.

Datalagring

[rediger | rediger kilde]

I hovedsak brukes to arbeidsflytparadigmer for datainnhenting og lagring i digital kinematografi.

Båndbaserte arbeidsflyter [rediger] Med båndbasert arbeidsflyt blir video tatt opp på bånd på settet. Denne videoen blir deretter importert til en datamaskin som kjører ikke-lineær redigeringsprogramvare, ved hjelp av et avspillingssystem. Ved import blir den digitale videostrømmen fra båndet konvertert til datafiler. Disse filene kan redigeres direkte eller konverteres til et mellomformat for redigering. Deretter blir videoen eksportert i sitt endelige format, muligens til en filmopptaker for kinovisning, eller tilbake til videobånd for kringkastingsbruk. De originale videobåndene beholdes som et arkiveringsmedium. Filene som genereres av den ikke-lineære redigeringsprogramvaren inneholder informasjonen som er nødvendig for å hente ut opptak fra de riktige båndene, i tilfelle opptakene som er lagret på datamaskinens harddisk skulle gå tapt. Med økende brukervennlighet av filbaserte arbeidsflyter har de båndbaserte arbeidsflytene blitt marginale de siste årene.

Filbaserte arbeidsflyter

[rediger | rediger kilde]

Digital kinematografi har for det meste gått over til "båndløse" eller "filbaserte" arbeidsflyter. Denne trenden har akselerert med økt kapasitet og reduserte kostnader for ikke-lineære lagringsløsninger som harddisker, optiske plater og SSD-minnebrikker. Med båndløse arbeidsflyter blir digital video tatt opp som digitale filer på tilfeldig aksess-medier som optiske plater, harddisker eller flashminnebaserte digitale "magasiner". Disse filene kan enkelt kopieres til en annen lagringsenhet, vanligvis til en stor RAID (matrise av datadisker) koblet til et redigeringssystem. Når data er kopiert fra opptaksmediet på settet til lagringsmatrisen, blir de slettet og returnert til settet for mer opptak.

Slike RAID-matriser, både "administrerte" (for eksempel SAN-er og NAS-er) og "ikke-administrerte" (for eksempel JBoD-er på en enkelt dataarbeidsstasjon), er nødvendige på grunn av gjennomstrømningen som kreves for sanntids (320 MB/s for 2K @ 24fps) eller nær sanntids avspilling i etterarbeid, sammenlignet med gjennomstrømningen som er tilgjengelig fra en enkelt, men rask harddisk. Slike krav omtales ofte som "online" lagring. Etterarbeid som ikke krever sanntids avspillingsytelse (vanligvis for teksting, underteksting, versjonering og andre lignende visuelle effekter) kan flyttes til litt tregere RAID-lagre.

Kortsiktig arkivering, "hvis noen gang", oppnås ved å flytte de digitale filene til "tregere" RAID-matriser (fortsatt av enten administrert eller ikke-administrert type, men med lavere ytelse), hvor avspillingsmuligheten er dårlig til ikke-eksisterende (med mindre via proxy-bilder), men minimal redigering og metadata-innhøsting fortsatt er mulig. Slike mellomliggende krav faller lett inn i kategorien "midline" lagring.

Langsiktig arkivering oppnås ved å sikkerhetskopiere de digitale filene fra RAID-en, ved hjelp av standard praksis og utstyr for datasikkerhetskopiering fra IT-bransjen, ofte til databånd (som LTO-er).

Chroma subsampling

[rediger | rediger kilde]

Hovedartikkel: Chroma subsampling De fleste digitale kinematografisystemer reduserer datamengden ytterligere ved å subsample fargeinformasjon. Fordi det menneskelige synet er mye mer følsomt for luminans enn for farge, kan fargeinformasjon med lavere oppløsning legges over luminansinformasjon (lysstyrke) med høyere oppløsning, for å skape et bilde som ser veldig likt ut som et hvor både farge- og luminansinformasjon er samplet i full oppløsning. Denne metoden kan forårsake pikselering eller fargeblødning under noen omstendigheter. Høykvalitets digitale kinematografisystemer er i stand til å ta opp fargeinformasjon i full oppløsning (4:4:4) eller rå sensordata.

Intra-frame vs. Inter-frame kompresjon

[rediger | rediger kilde]

De fleste kompresjonssystemer som brukes for opptak i den digitale kinematografiverdenen komprimerer opptak bilde for bilde, som om en videostrøm er en serie stillbilder. Dette kalles intra-frame kompresjon. Inter-frame kompresjonssystemer kan komprimere data ytterligere ved å undersøke og eliminere redundans mellom bilder. Dette fører til høyere komprimeringsforhold, men visning av et enkelt bilde vil vanligvis kreve at avspillingssystemet dekomprimerer et antall bilder fra før og etter det. Ved normal avspilling er dette ikke et problem, da hvert påfølgende bilde spilles av i rekkefølge, så de foregående bildene er allerede dekomprimert. Ved redigering er det imidlertid vanlig å hoppe rundt til spesifikke bilder og spille av opptak baklengs eller i forskjellige hastigheter. På grunn av behovet for å dekomprimere ekstra bilder i disse situasjonene, kan inter-frame kompresjon forårsake ytelsesproblemer for redigeringssystemer. Inter-frame kompresjon er også ufordelaktig fordi tapet av et enkelt bilde (for eksempel på grunn av en feil ved skriving av data til et bånd) vanligvis vil ødelegge alle bildene frem til neste nøkkelbilde oppstår. I tilfellet med HDV-formatet kan dette for eksempel resultere i at opptil 6 bilder går tapt med 720p-opptak, eller 15 med 1080i.[28] En inter-frame komprimert videostrøm består av grupper av bilder (GOPs), hvor hver gruppe bare har ett fullstendig bilde, og en håndfull andre bilder som refererer til dette bildet. Hvis det fullstendige bildet, kalt I-frame, går tapt på grunn av overførings- eller mediefeil, kan ingen av P-frames eller B-frames (de refererte bildene) vises. I dette tilfellet går hele GOP-en tapt.

DCT vs. DWT kompresjon

[rediger | rediger kilde]

Diskret kosinustransformasjon (DCT) koding er den vanligste datakompresjonsprosessen som brukes i digital filmopptak og redigering, inkludert JPEG-bildekompresjonstandarden og ulike videokodingsstandarder som DV, DigiBeta, HDCAM, Apple ProRes, Avid DNxHD, MPEG, Advanced Video Coding (AVC) og AVCHD. Et alternativ til DCT-koding er JPEG 2000 diskret wavelet-transformasjon (DWT) koding, som brukes i Redcode og DCI XYZ video-kodeker samt digital kinodistribusjon.[29][30]

Digital distribusjon

[rediger | rediger kilde]

Hovedartikkel: Digital kino For kinoer med digitale projektorer kan digitale filmer distribueres digitalt, enten sendt til kinoer på harddisker eller via internett eller satellittnettverk. Digital Cinema Initiatives, LLC, et fellesforetak mellom Disney, Fox, MGM, Paramount, Sony Pictures Entertainment, Universal og Warner Bros. Studios, har etablert standarder for digital kinoprojeksjon. I juli 2005 lanserte de den første versjonen av Digital Cinema System Specification,[31] som omfatter 2K og 4K kinoprojeksjon. De tilbyr også samsvarstesting for kinoer og utstyrsleverandører.

JPEG 2000, en diskret wavelet-transformasjon (DWT) basert bildekompresjonstandard utviklet av Joint Photographic Experts Group (JPEG) mellom 1997 og 2000,[32] ble valgt som videokodingstandard for digital kino i 2004.[33]

Kinoeiere var først motvillige til å installere digitale projeksjonsystemer på grunn av høye kostnader og bekymring for økt teknisk kompleksitet. Imidlertid har nye finansieringsmodeller, der distributører betaler et "digitalt print"-gebyr til kinoeierne, bidratt til å lette disse bekymringene. Digital projeksjon gir også økt fleksibilitet med hensyn til visning av trailere og reklame før filmen, og gjør det lettere for kinoeiere å flytte filmer mellom saler eller endre hvor mange saler en film vises på. Den høyere kvaliteten på digital projeksjon gir en bedre opplevelse for å tiltrekke seg forbrukere som nå kan få tilgang til høydefinisjonsinnhold hjemme. Disse faktorene har resultert i at digital projeksjon har blitt et stadig mer attraktivt prospekt for kinoeiere, og tempoet i adopsjonen har økt raskt.

Siden noen kinoer for tiden ikke har digitale projeksjonsystemer, må en film overføres til film selv om den er skutt og etterbehandlet digitalt, hvis en stor kinovisning er planlagt. Vanligvis vil en filmopptaker brukes til å skrive ut digitale bildedata til film, for å lage et 35 mm internegativ. Etter det er duplikasjonsprosessen identisk med den for et tradisjonelt negativ fra et filmkamera.

Sammenligning med filmkinematografi [rediger] Hovedartikkel: Digital versus filmfotografi

Oppløsning

[rediger | rediger kilde]

I motsetning til en digital sensor, har ikke en filmrute et regelmessig rutenett av diskrete piksler.

Å bestemme oppløsningen i digital opptak virker enkelt, men det er betydelig komplisert av måten digitale kamerasensorer fungerer på i virkeligheten. Dette er spesielt tilfelle for høyendte digitale kinematografikameraer som bruker en enkelt stor Bayer-mønster CMOS-sensor. En Bayer-mønster sensor sampler ikke full RGB-data på hvert punkt; i stedet er hver piksel forutinntatt mot rød, grønn eller blå, og et fullfargebilde settes sammen fra dette sjakkbrettet av farger ved å behandle bildet gjennom en demosaikkings-algoritme. Generelt med en Bayer-mønster sensor vil den faktiske oppløsningen falle et sted mellom den "opprinnelige" verdien og halvparten av dette tallet, med ulike demosaikkings-algoritmer som produserer ulike resultater. I tillegg bruker de fleste digitale kameraer (både Bayer og tre-brikke-design) optiske lavpassfiltre for å unngå aliasing; suboptimal anti-aliasing filtrering kan ytterligere redusere systemoppløsningen.

Korn og støy

[rediger | rediger kilde]

Film har en karakteristisk kornstruktur. Ulike filmtyper har ulike korn.

Digitalt innspilt materiale mangler denne kornstrukturen. Det har elektronisk støy.

Digital mellomlagring arbeidsflyt og arkivering

[rediger | rediger kilde]

Prosessen med å bruke digital mellomlagring arbeidsflyt, hvor filmer fargekorrigeres digitalt i stedet for via tradisjonelle fotokjemiske etterbehandlingsteknikker, har blitt vanlig.

For å utnytte digital mellomlagring arbeidsflyt med film, må kameranegativet først fremkalles og deretter skannes til et digitalt format. Noen filmskapere har årelang erfaring med å oppnå sin kunstneriske visjon ved å bruke teknikkene som er tilgjengelige i en tradisjonell fotokjemisk arbeidsflyt, og foretrekker den etterbehandlings/redigeringsprosessen.

Digitalt innspilte filmer kan skrives ut, overføres eller arkiveres på film. Storskala digitale produksjoner arkiveres ofte på film, da det gir et sikrere medium for lagring, noe som er fordelaktig for forsikrings- og lagringskostnader.[34] Så lenge negativet ikke forringes fullstendig, vil det alltid være mulig å gjenopprette bildene fra det i fremtiden, uavhengig av teknologiske endringer, siden alt som vil være involvert er enkel fotografisk reproduksjon.

I motsetning til dette, selv om digitale data lagres på et medium som vil bevare integriteten, vil det alltid kreves høyspesialisert digitalt utstyr for å reprodusere det. Endringer i teknologi kan dermed gjøre formatet uleselig eller dyrt å gjenopprette over tid. Av denne grunn lager filmstudioer som distribuerer digitalt opprinnelige filmer ofte filmbaserte separasjonsmastere av dem for arkiveringsformål.[34]

Pålitelighet

[rediger | rediger kilde]

Forkjempere for film har argumentert for at tidlige digitale kameraer mangler påliteligheten til film, spesielt ved filming av sekvenser i høy hastighet eller i kaotiske miljøer, på grunn av tekniske feil i digitale kameraer. Filmfotograf Wally Pfister bemerket at for hans opptak på filmen Inception, "Av seks ganger vi filmet i digitalt format, hadde vi bare ett brukbart stykke og det endte ikke opp i filmen. Av de seks gangene vi filmet med Photo-Sonics-kameraet og 35mm film, var hvert eneste opptak med i filmen."[35] Michael Bay uttalte at under innspillingen av Transformers: Dark of the Moon, måtte 35mm kameraer brukes når de filmet i slow-motion og sekvenser hvor de digitale kameraene var utsatt for stroboskopeffekt eller elektrisk skade fra støv.[36] Siden 2015 har digital nesten helt erstattet film for høyhastighetssekvenser opp til 1000 bilder per sekund.

Kritikk og bekymringer
[rediger | rediger kilde]

Noen filmregissører som Christopher Nolan,[37] Paul Thomas Anderson[38] og Quentin Tarantino har offentlig kritisert digital kino, og talt for bruk av film og filmkopier. Tarantino har antydet at han kan pensjonere seg fordi han ikke lenger vil kunne få filmene sine projisert i 35mm i de fleste amerikanske kinoer. Tarantino anser digital kino for å være simpelthen "fjernsyn i offentligheten."[39] Christopher Nolan har spekulert i at filmindustriens adopsjon av digitale formater har vært drevet utelukkende av økonomiske faktorer i motsetning til at digital er et overlegent medium sammenlignet med film: "Jeg tror, ærlig talt, at det koker ned til den økonomiske interessen til produsenter og [en produksjons] industri som tjener mer penger gjennom endring enn ved å opprettholde status quo."[37]

En annen bekymring med digital bildefangst er hvordan man skal arkivere alt det digitale materialet. Arkivering av digitalt materiale viser seg å være ekstremt kostbart, og det skaper problemer når det gjelder langsiktig bevaring. I en studie fra 2007 fant Academy of Motion Picture Arts and Sciences at kostnaden for å lagre 4K digitale mastere er "enormt høyere – 1100% høyere – enn kostnaden for å lagre filmmastere." Videre står digital arkivering overfor utfordringer på grunn av utilstrekkelig levetid for dagens digitale lagring: ingen nåværende medier, enten det er magnetiske harddisker eller digitale bånd, kan pålitelig lagre en film i hundre år, noe som riktig lagret og håndtert film kan gjøre.[40] Selv om dette også pleide å være tilfelle med optiske plater, lanserte Millenniata, Inc., et digitalt lagringsselskap basert i Utah, i 2012 M-DISC, en optisk lagringsløsning designet for å vare opptil 1000 år, og tilbyr dermed en mulighet for digital lagring som en levedyktig lagringsløsning.[41][42]

  • Digital versus filmfotografi
  • Filmisering
  • Liste over filmrelaterte emner
  • Filmskanner for bevegelige bilder
  1. ^ Archambault, Michael (26. mai 2015). «Film vs Digital: A Comparison of Pros and Cons». PetaPixel (engelsk). Besøkt 18. september 2024.