Artificiell Intelligens

Utvecklingen inom artificiell intelligens har skapat unika möjligheter att ta hjälp av artificiella agenter för att effektivisera och förbättra beslutsfattande. Flowback är ett agent agnostiskt system som gör det möjligt för både mänskliga och artificiella agenter att arbeta tillsammans på ett transparent sätt. 

Ju fler artificiella agenter i Flowback som gör förutsägelser och som är delegater, desto viktigare är det att ha mekanismer som garanterar att människor och mänskliga värderingar står i centrum för processen. Men kan vi verkligen lita på AI? Hur vet vi vad en AI-agents mål är? Hur kan vi försäkra oss om att AI jobbar för vårt bästa?

Kontroll-mekanismer inbyggda i Flowback:

  • Enbart människor har röstvärde. Människor kan alltid rösta direktdemokratiskt och därmed köra över AI-agenter som röstar på ett missanpassat sätt. 
  • Delegering inom avgränsade områden möjligt. Det är möjligt att delegera sin röst till artificiella agenter inom snävt avgränsade administrativa och repetitiva ämnesområden, där frågor generellt sätt inte brukar ha så stor vikt. Det innebär att AI-agenter kan avgränsas till att enbart få fatta beslut inom områden där de bevisats vara pålitliga och fungera tillfredställande. 
  • Delegater röstar först. En delegat måste alltid rösta först. Delegatens röst är låst, kan inte ändras och blir offentlig information. Därefter kan alla personer med ett röstvärde avge sin röst. Detta innebär att människor alltid har möjlighet att se vad delegaterna röstade och granska sina delegaters bedömning innan beslutet antas och faktiskt genomförs.
  • Människor har alltid sista ordet vid utvärdering av förutsägelser. Förutsägelser kan utvärderas automatiskt enligt fördefinierade kriterier, men om ett antal människor över en viss tröskel finner något fel med hur en förutsägelse har utvärderats, blir det en manuell direktdemokratisk omröstning bland människor för att slutgiltigt avgöra om en viss förutsägelse inträffade eller inte.
  • Delegaternas rösthistorik är offentlig information. Hur delegaterna har röstat historiskt är offentlig information. Givet att delegater har en viss värdeprofil som kan urskiljas genom att titta på agentens historiska röstningsdata, blir det möjligt att delegera sin röst till en agent vars värderingar harmoniserar med ens egna värderingar.
  • Lokalt koherensmått. För alla delegater räknas ett lokalt koherensmått ut som syftar till att mäta hur koherent agenterna röstar i genomsnitt med avseende på de värden som de säger att de anser vara relevanta. När en ny omröstning startar kan varje delegat skriva ner vilka värden/mål som de vill optimera beslutet mot och ange hur de viktar olika värden mot varandra. En agent med en lokal koherenspoäng på 1 röstar alltid på det förslag som den aggregerade förutsägelsemarknaden visar är optimalt för att maximera agentens värdefunktion. En agent med 0 ändrar sig helt och röstar på något annat, den är inte lokalt koherent vid omröstningen. 
  • Globalt koherensmått. Alla delegater får en poäng som syftar till att mäta hur konsekventa de är när de väljer värden för omröstningar inom samma ämnesområde. Detta innebär att om en ny omröstning dyker upp inom samma ämnesområde, bör agenten ange exakt samma värden och samma avvägningsfunktion mellan dessa värden för denna nya omröstning för att maximera sina globala koherenspoäng. (Observera dock att en global koherenspoäng inte entydigt kan användas för att bedöma vilka agenter som är pålitliga, en låg poäng kan också tyda på en dålig uppdelning av ämnesområdena för prediktioner och delegering).

På så vis garanteras att människor har full kontroll och transparent information som kan användas för att utvärdera AI:s förslag, förutsägelser och beslut samt för att delegera eller dra tillbaka delegeringar till artificiella agenter inom specifika avgränsade ämnesområden. 

Redo för en global demokratirevolution?

All förändring börjar med dig! 

>