_Wat gebeurt er als een digitale tweeling jouw leven overneemt, gebaseerd op wie je wás – en op wat het internet denkt dat mensen zijn?_ Ik kwam iets tegen dat Omi heet – een klein apparaatje dat je om je nek draagt. Zoals Plaud, dat meetings voor je transcribeert en samenvat. Maar Omi wil verder gaan. Omi wil _jou_ worden. Het apparaatje luistert de hele dag met je mee. En doordat het jou steeds beter leert kennen – je stem, je zinnen, je voorkeuren – wordt het een soort digitale tweeling. Ze zeggen zelfs dat er dit jaar een module komt die je gedachten kan lezen. Je ideeën kunt delen, en antwoorden kunt krijgen op vragen die je alleen nog maar _dacht_. Je kunt er straks plannen mee maken, samenvattingen mee laten maken, dingen mee vertalen – allemaal met alleen je stem. En het mooie is: het is open source. Iedereen mag mee ontwikkelen, en er worden bounties uitgereikt voor wie bijdraagt. Handig, dacht ik. En tegelijk gebeurde er iets. Een gevoel dat ergens tussen fascinatie en ongemak in zat. ### **Niet vooruit, maar terug** Wat zo’n digital twin eigenlijk doet, is je verleden verzamelen. Het leert van wat je eerder zei. Wat je eerder vond. Hoe je je eerder uitdrukte. Dat klinkt logisch, misschien zelfs slim. Maar het betekent ook dat zo’n systeem vooral een beeld van jou opbouwt dat gebaseerd is op wie je _was_. En dat beeld, dat wordt dan gespiegeld en teruggekaatst als ‘hulp’. Als advies. Als herinnering. Maar het is een advies dat gebaseerd is op een eerdere jij – niet de jij die je aan het worden bent. Laat staan de jij die je graag _zou_ willen worden. Je wordt dus geholpen, ja. Maar geholpen terug, niet vooruit. ### **Meer data van wie je was** Daar zit nog iets bij: van je verleden bestaat áltijd meer data dan van je heden of toekomst. Natuurlijk. Je hebt nu eenmaal meer gezegd, gedeeld en vastgelegd over wie je was, dan over wie je aan het worden bent. Een AI die getraind wordt op jouw geschiedenis zal daarom onvermijdelijk een versie van jou bouwen die stevig verankerd is in je verleden. Maar daar stopt het niet. Die digitale tweeling wordt niet alleen gevoed met jouw eigen data – hij is ook gebouwd op een groter taalmodel. En dat taalmodel is op zijn beurt getraind op alles wat mensen massaal online hebben gedeeld. Publieke content. Internetdata. Forums, blogs, nieuwsartikelen, sociale media. Dat betekent: een bias naar mensen die _al_ hun stem hebben laten horen. Een oververtegenwoordiging van bepaalde perspectieven, culturen, genders, talen, opvattingen. Dus je tweeling is niet alleen gebaseerd op jouw verleden, maar ook op een gemiddeld internetbeeld van ‘hoe mensen zijn’. En die mensen, dat zijn zelden mensen zoals jij precies bent – laat staan zoals je zou willen worden. ### **Wie bepaalt wie je bent?** En dan de vraag die voor mij misschien wel het meest schuurt: als zo’n digitale tweeling dagelijks met je meedenkt, wordt het dan niet langzaam één van de stemmen in je hoofd? Er wordt weleens gezegd dat je het gemiddelde bent van de vijf mensen met wie je je het meest omringt. Wat als een digital twin daar straks één van is? Een extra persoon in de kamer. Altijd beschikbaar, altijd afgestemd op je oude voorkeuren. Nooit botsend, nooit verrassend. Altijd bevestigend. Wat gebeurt er met je als je vooral omgaat met een versie van jezelf die je eigenlijk allang was ontgroeid? ### **Een spiegel die je vasthoudt** En pas toen, ergens daar, voelde ik het scherp: Alsof ik werd teruggetrokken naar een vroegere versie van mezelf – gemixt met de _deviation to the mean_ van een groot taalmodel. Een spiegel die niet reflecteert, maar herhaalt. Een stem die niet vooruit helpt, maar terugtrekt. Een elastiek naar het verleden.