Amazon pronkt met zijn gevallen engelen technologie, waarmee Alexa de stem van onder anderen overleden familieleden kan nabootsen.
Eindtijdnieuws.com
24 juni 2022
De Amerikaanse E-commercegigant zegt, dat zijn virtuele assistent minder dan een minuut van een audio opname nodig heeft, om iemands spraak na te bootsen.
Amazon.com Inc. ontwikkelt een functie voor het nabootsen van stemmen voor zijn virtuele assistent Alexa, die de spraak van mensen, of ze nu levend of dood zijn, nabootst. Amazon voegt zich bij andere bedrijven, die ook experimenteren met het creëren van ‘digitale herinneringen’ van mensen na hun dood.
Video clip in actie op MARS 2022
Rohit Prasad, hoofdwetenschapper voor Alexa, toonde afgelopen woensdag een videoclip van de nieuwe functie in actie. Hij deed dit op Amazon’s MARS 2022 conference over kunstmatige intelligentie (AI). De clip toonde een jongen, die Alexa vroeg om hem ‘The Wizard of Oz’ voor te lezen met de stem van zijn oma. Alexa schakelde vervolgens over van haar standaardstem naar de nagebootste en levensechte stem van zijn overleden oma. De assistent las het boek met diezelfde stem voor.
Weer zijn kinderen het doelwit
De technologie is gebaseerd op slechts een korte stemopname van de betreffende persoon, toen hij of zij nog in leven was. Op die manier worden met name onze kinderen binnenkort geïnfiltreerd met het idee, dat luisteren naar stemmen van overleden mensen gewoon heel normaal is. Ja, satan is heel geraffineerd en sluw!
“Hoewel AI de pijn van het verlies niet kan wegnemen, kan het herinneringen wel laten voortleven”, zei Prasad op de conferentie in Las Vegas. “In plaats van de stem van Alexa, die een boek voorleest, weerklinkt de stem van bijvoorbeeld een grootmoeder. We hebben geleerd hoe we een stemgeluid van goede kwaliteit kunnen produceren op basis van een opname van minder dan een minuut. We leven ongetwijfeld in het gouden tijdperk van AI, waarin onze dromen en sciencefiction realiteit aan het worden zijn!”
Wanneer de nieuwe functie zal verschijnen, maakte de Amazon voorzitter nog niet bekend.
Hier volgt een glimp van hoe de functie werkt:
Amazon is working on a feature that lets Alexa mimic the voice of dead family members using short voice clips. Yeah, it can read you stories in Grandma’s voice. Would you wanna try it or too creepy?
Here’s a glimpse at how the feature works (source: Amazon re:MARS keynote) pic.twitter.com/zKjeIdcZkA
— Beebom (@beebomco) June 24, 2022
Ziekelijk
Op Twitter reageerde lang niet iedereen positief. Zo noemden sommigen de nieuwe functie ‘griezelig’ en ‘ziekelijk’. Ook technologie experts stellen zichzelf steeds meer vragen over het gebruik van AI en deepfakes, ofwel valse kunstmatige beelden van mensen in het dagelijkse leven.
Oude foto’s, brieven, tapes… en nu ook deepfake voices
Ja, dankzij deze technologie uit het rijk der duisternis kunnen we, nog lang na hun dood, herinneringen aan mensen bewaren door hun fake stemmen. Om de technologie aan de mens te brengen, vertelde Rohit Prasad het publiek dat de wens achter deze functie was, om meer vertrouwen op te bouwen in de interacties, die gebruikers met Alexa hebben, namelijk door meer ‘menselijke eigenschappen van empathie en genegenheid’ toe te voegen.
Plandemie als excuus
“Deze attributen zijn nog belangrijker geworden tijdens de aanhoudende pandemie, nu zo velen van ons diegenen hebben verloren, van wie we houden”, zei Prasad.
Ziet u hoe de elite de gecreëerde pandemie (chaos) gebruikt als een middel en een excuus om met hun oplossingen te komen?
Om de functie te kunnen maken, moest het bedrijf leren hoe het een ‘stem van hoge kwaliteit’ kon maken met een kortere opname, in plaats van uren van opnemen in een studio. Natuurlijk heeft Amazon geen verdere details over de functie vrijgegeven, wat ongetwijfeld zal leiden tot meer privacy kwesties en ethische vragen!
Misbruik en misleiding
“Deze technologie heeft een opwindend potentieel op het gebied van onderwijs, toegankelijkheid en entertainment, en toch is het ook gemakkelijk voor te stellen hoe het kan worden gebruikt, om sprekers op ongepaste wijze na te bootsen, en luisteraars te misleiden”, aldus Natasha Crampton, hoofd van de afdeling AI-ethiek van Microsoft… terwijl AI-tech op zichzelf al een en al misleiding is.
En daarmee is een dergelijke technologie, die ‘oma digitaal weer tot leven wekt’, geen grote overwinning, maar een extreem gevaar voor jong en oud! Hoewel het als iets onschuldigs aan de mensheid wordt gepromoot, kan dit opzettelijke nabootsen van stemmen van overleden familieleden voor nog snodere doeleinden worden gebruikt.
Bron:
Amazon Is Training Alexa to Imitate Voices of Real People, Including the Dead