Bild
Löpare med pulsklocka och mobiltelefon
Vi loggar en allt större del av vårt liv i olika uppsättningar av data.
Foto: Andrey Popov
Länkstig

Oceaner av data – hur påverkar de oss?

Publicerad

Olgerta Tona studerar olika aspekter av den snabba teknologiska utvecklingen och dess konsekvenser för samhälle, organisationer och individ. Det stora flödet av insamlad data är särskilt intressant. Hur navigerar vi kring fördelar och nackdelar – och tar höjd för individens behov av integritet?

Fokus på den digitala teknikens konsekvenser för samhälle och organisationer

Bild
Olgerta Tona
Olgerta Tona, universitetslektor i informatik.
Foto: Maja Härnqvist

– Mitt forskningsintresse handlar om framväxande teknologiers konsekvenser för organisationer och för samhället i stort, säger Olgerta Tona. Jag intresserar mig i synnerhet för beslutsfattande med algoritmstöd, affärsanalys och användningen av personuppgifter i digital form.

– I min avhandling vid Lunds universitet fokuserade jag på mobil affärsintelligens, ett område som då var på framväxt, och dess inverkan på beslutsfattande i organisationer. Jag studerade det sätt på vilket anställda och chefer interagerar och använder sig av data och hur den interaktionen och de insikter de fick via data påverkade deras beslutsfattande.

– Sedan inträffade skandalen med Cambridge Analytica och Facebook och jag blev verkligen intresserad av vad som är på gång i samhället kopplat till data. När data inkluderar i princip allt vi gör i våra dagliga aktiviteter, våra val och beslut vi fattar – vad betyder det för oss som kunder, patienter och medborgare?

Projekt om algoritmbaserat beslutsfattande

Olgerta Tona med kollegor är engagerade i en studie av ett algoritmbaserat beslutssystem som en utländsk statlig institution har använt sig av. Systemet infördes för att enkelt kunna identifiera eventuella bedrägerier och därmed få tillbaka felaktigt utbetalda belopp. Tyvärr fanns ett konstruktionsfel i systemet vilket gjorde att ett stortantal medborgare felaktigt "flaggades" som personer som fått för stora utbetalningar och nu stod i skuld till staten.

Eftersom algoritmen kunde hantera ett så stort antal ärenden samtidigt, blev konsekvenserna snabbt stora. Den personal som tidigare hanterat ärendena manuellt hade sina rutiner, policyer och föreskrifter. De hade gått igenom varje ärende för sig och processen tog i jämförelse mycket lång tid. Algoritmen kunde nu hantera tusentals beslut om dagen och eventuella felaktiga slutsatser från systemets sida hann därför bli många innan felet upptäcktes.

–  I vårt projekt försöker vi just nu undersöka vad som hände, varför det hände, vilka konsekvenserna blev och vilken typ av åtgärder som bör vidtas för att i tid bli uppmärksam på felaktiga slutsatser som har sitt ursprung i ett system, säger Olgerta.

Personuppgiftsdigitalisering kopplad till respekt och mänsklig integritet

– I vår andra forskningsstudie tittar vi på digitalisering av personuppgifter och hur personuppgifter som används av digital teknik integreras i våra dagliga aktiviteter och även våra val. Vilka konsekvenser har egentligen digitaliseringen av personuppgifter för människors integritet? Det är väldigt intressant.

– Även om vi kan säga att teknik... det är inte lätt att säga att teknik är bra eller dåligt, eller hur? Man måste verkligen alltid ta en titt från båda sidor.

– Jag tittar på det här med digitaliserade personuppgifter ur perspektivet mänsklig värdighet och integritet och försöker se hur teknologier och digitala plattformar använder personuppgifter. Det sätt som digitaliserade personuppgifter används på kan verkligen skapa fördelar för individen, det kan främja en persons värdighet, medan andra användningssätt faktiskt kan utgöra ett hot.

Olgerta Tona säger att något som blir en ännu större utmaning är hur vi navigerar nu när vi har mycket stora fördelar av digital teknik men där tekniken samtidigt innebär ett visst hot.

– Användning av en specifik teknologi kan till exempel vara mycket fördelaktig för en grupp människor – medan den kan vara skadlig för en annan. Hur ska vi navigera i denna avvägning? Du designar digital teknik med tanken att den ska skapa ett antal fördelar. Du vill effektivisera vissa processer för att spara tid kanske – men om tekniken används på andra sätt än de som du har tagit med i beräkningen kan oväntade konsekvenser uppstå. Dualiteten när det gäller digital teknologi är väldigt intressant, du måste alltid hantera och väga in båda sidor.

Datainsamlingen skapar en digital ”persona”

– Det är också intressant med de olika möjligheter vi har att samla in personuppgifter. Som demografisk data – var vi bor, beteendedata – vad vi gör, platsdata – var vi är, eller vid vilken tid på dygnet en viss aktivitet äger rum. Det kan verka som lösryckt information, men när du börjar kombinera och åter-kombinera informationen finns mycket kraft i datamängderna och de kan användas för att skapa profiler av människor och vad de gillar.

– Det kan till exempel handla om det logiska och rationella i de beslut som människor fattar, orsakerna bakom en viss handling. När du börjar få en uppfattning om den digitala ”personan” kan du kategorisera personerna utifrån liknande ställningstaganden. Kategorierna används för att anpassa tjänster och produkter. Det kan tyckas enkelt, men det finns så många problem med kategoriseringen. Det är en sak när du kategoriserar dig själv: "Jag känner att jag tillhör just den här gruppen", då är det din uppfattning och dina upplevelser som är viktiga. Det är en annan sak när någon annan gör kategoriseringen åt dig: "Jag tror att du hör hemma här".

– Ett problem som vi ser med kategoriseringen är att människor riskerar att fastna i filterbubblor och får samma anpassade innehåll om och om igen. De åsikter och eventuella fördomar som en viss person har tenderar att förstärkas och då börjar frågor om polarisering dyka upp. Det här är ett område som är viktigt att bedriva forskning inom och vara medveten om.

– Nu har vi all denna datainsamling att tillgå, vi har profileringsmöjligheterna vi får när vi kombinerar data – allt det här ger företagen betydligt större möjligheter att erbjuda människor anpassade tjänster och produkter. Å ena sidan kan jag som kund känna "åh vad skönt att någon annan tar hand om den här sökprocessen och kan erbjuda mig tjänster och produkter som jag är intresserad av". Å andra sidan riskerar individen att få sin autonomi och frihet begränsad.

Enheter ger oss kontroll och övervakar oss

Olgerta Tona kommer även in på de enheter vi har som innebär någon form av övervakning. Vad betyder de för vårt dagliga liv? Vi har teknologi som räknar de steg vi tar, som mäter vår hjärtfrekvens och stressnivå och så vidare.

– Enheterna bidrar ju till att du vet mer om dig själv, du kan tydligt se när du behöver mer motion eller när du behöver sänka din stressnivå till exempel. Du kan göra väl underbyggda val baserade på data om just dig. "Åh, jag måste verkligen börja med mina fysiska aktiviteter igen, jag ser att jag ligger efter…" Men om jag fokuserar för mycket på den digitaliserade informationen får jag bara med de aspekter som kan digitaliseras och missar kanske sådant som jag bara kan uppleva med min egen kropp och som skulle kunna vara av större vikt. De som producerar de här enheterna får på det här sättet folks uppmärksamhet där de önskar att den ska vara.
    
– Små barn är ett annat exempel. Många föräldrar med en nyfödd hemma är oroliga och kontrollerar att barnet andas och liknande saker. Nu finns en teknologi i form av en socka som registrerar barnets hjärtfrekvens. Men du är orolig och för säkerhets skull har du sockan på hela tiden och studerar uppgångar och nedgångar i grafen. Här hade du kanske kunnat lägga fokus på att bara gosa med barnet och skapa ett tätare band.

–  När barnen blir tonåringar är det istället andra saker som föräldrar oroar sig för och gärna vill övervaka, var tonåringarna befinner sig på nätet till exempel. Men vad händer med förtroendet tonåring-förälder?

Tekniken för med sig alla dessa otroligt positiva saker för vårt samhälle – vad hade vi gjort under pandemin utan teknologi till exempel..? Men det finns också konsekvenser som vi måste tänka på.

 

Text: Catharina Jerkbrant, 2023