Fristet til at snyde med eksamensopgaven? Kunstig intelligens opdager dig med 90 procent sikkerhed – Københavns Universitet

SCIENCE > Presse > Nyheder > 2019 > Fristet til at snyde m...

28. maj 2019

Fristet til at snyde med eksamensopgaven? Kunstig intelligens opdager dig med 90 procent sikkerhed

Kunstig intelligens

Forskere fra Københavns Universitet kan ved hjælp af big data og kunstig intelligens nu med næsten 90 procent sikkerhed afgøre, om du selv har skrevet din opgave eller fået en anden til at gøre det for dig.

(Vasyl Dolmatov/Getty Images)

Snyd med opgaverne i gymnasiet er udbredt blandt eleverne, viser adskillige undersøgelser. På Datalogisk Institut på Københavns Universitet har man i flere år forsket i at afsløre snyd med opgaver ved at analysere elevernes skrivestil med kunstig intelligens. På baggrund af analyser af 130.000 skriftlige danskopgaver kan forskerne nu med næsten 90 procent sikkerhed afsløre, om det er eleven selv, der har skrevet opgaven, eller om det er en såkaldt ghostwriter.

I dag bruger gymnasierne platformen Lectio, som opdager, hvis en elev afleverer en plagieret opgave, hvor der er skrevet direkte af fra en tidligere afleveret opgave. Men gymnasierne har dårlige chancer for at opdage det, hvis en elev får en anden til at skrive opgaven for sig, hvilket sker i mere eller mindre systematiseret grad på forskellige tjenester på nettet. Særligt i forbindelse med den såkaldte SRP-opgave, som karaktermæssigt tæller dobbelt, er det set, at elever går som vidt som at udlicitere opgaveskrivningen på Den Blå Avis.

”Problemet i dag er, at hvis du hyrer en til at skrive din opgave for dig, så fanger Lectio det ikke. Men her vil vores program opdage forskellen i skrivestil ved at sammenligne med tidligere opgaver, som eleven har skrevet. Programmet kigger bl.a. på ordlængde, sætningskonstruktion og brugen af forskellige ord - eksempelvis om eleven skriver fx eller f.eks.,” forklarer Ph.d.-studerende Stephan Lorenzen fra Datalogisk Institut, der sammen med resten af forskningsgruppen DIKU-DABAI for nyligt har fremlagt deres resultater på en stor europæisk konference om kunstig intelligens.

Etisk diskussion før fælden klapper


Programmet, som meget nærliggende hedder Ghostwriter, er bygget på såkaldt machine learning og neurale netværk – grene af kunstig intelligens, som er særligt gode til at genkende mønstre i fx billeder og tekst. Det er firmaet Macom, som i dag leverer Lectio til gymnasierne, der har stillet datasættet med de 130.000 skriftlige opgaver fra 10.000 forskellige gymnasieelever til rådighed for forskerne på Datalogisk Institut i udviklingen af programmet Ghostwriter, som fortsat bare er et forskningsprojekt.

Stephan Lorenzen tror dog ikke, at det er urealistisk, at programmet inden for en overskuelig fremtid finder vej til gymnasierne, som hele tiden må følge med den teknologiske udvikling for at komme snyd til livs.

 ”Jeg tror, det er realistisk, at gymnasierne tager det i brug på et tidspunkt. Men før de gør det, skal man have en etisk diskussion af, hvordan teknologien anvendes. Resultatet, som programmet kommer frem til, skal aldrig stå alene, men kun være med til at underbygge en mistanke om snyd,” pointerer Stephan Lorenzen. 

Politi og fake news


Også andre steder i samfundet kan teknologien, som Ghostwriter bygger på, bruges. Eksempelvis i politiets arbejde med at gennemgå forfalskede dokumenter, som i dag varetages af blandt andre rets-lingvister, kunne programmet bruges som et supplement.

”Det kunne være sjovt at få et samarbejde med politiet, som i dag bruger rets-lingvister, der kigger meget kvalitativt på nogle få tekster, som de sammenligner med hinanden. Vi kigger på en stor mængde data og finder nogle mønstre. Jeg forestiller mig, at den kombination godt kunne være nyttig i politiets arbejde,” siger Stephan Lorenzen og understreger, at den etiske diskussion også her er nødvendig at tage.

Den type kunstige intelligens, som forskerne på Datalogisk Institut har brugt til at afsløre snyd med opgaver, har i det hele taget en lang række anvendelsesmuligheder. Den er fx også tidligere blevet brugt til at analysere tweets fra Twitter for at afgøre, om det var rigtige brugere på det sociale medie eller ansatte og robotter, der stod bag.