Implications sociétales de l'IA générative Tutoriels

La vidéo explore l'IA générative, présentant d'abord des applications innovantes comme DeepDream de Google. Cependant, elle aborde rapidement des sujets plus sombres, en se concentrant sur les défis éthiques des deepfakes, notamment leurs implications en matière de désinformation et de sécurité nationale. Elle souligne également les problèmes de biais dans l'IA, montrant comment les données de formation peuvent influencer les résultats. Un point clé est l'érosion du concept de vérité, où l'IA générative peut semer la méfiance dans les médias et exacerber la polarisation sociale. Toutefois, la vidéo reconnaît aussi les opportunités offertes par l'IA, tout en soulignant la tension entre l'innovation et la nécessité de réglementation. Elle conclut en mettant l'accent sur l'importance de l'éducation pour naviguer dans ce paysage complexe.

  • 7:05
  • 780 vues
00:00:05
L'IA générative est au cœur de la
00:00:07
nouvelle frontière technologique,
00:00:08
transformant nos manières de voir et de
00:00:11
créer. De l'art visuel hallucinant de
00:00:13
Midjourney, DeepDream de Google aux
00:00:16
mélodies sophistiquées d'openAI MuseNet,
00:00:18
les limites créatives semblent s'estomper.
00:00:21
Cependant, avec la magie vient la malice.
00:00:25
Les "deepfakes" brouillent les
00:00:27
frontières entre réel et faux,
00:00:29
posant d'énormes problèmes éthiques.
00:00:31
Les deepfakes peuvent être utilisés
00:00:33
pour créer des vidéos ou des audios faux qui
00:00:36
présentent des personnalités publiques
00:00:37
ou des politiciens disant ou faisant des
00:00:40
choses qu'ils n'ont jamais dites ou faites.
00:00:43
Cela peut être utilisé pour diffuser
00:00:45
de fausses informations ou de la
00:00:48
propagande manipulant l'opinion publique.
00:00:50
Les deepfakes pourraient être utilisés
00:00:52
pour imiter des dirigeants nationaux
00:00:54
ou des officiers militaires,
00:00:55
créant des vidéos qui pourraient
00:00:58
déclencher des crises diplomatiques,
00:00:59
voire des conflits.
00:01:02
À mesure que les deepfakes deviennent
00:01:04
de plus en plus convaincants,
00:01:06
il devient difficile pour le public
00:01:08
de discerner le vrai du faux.
00:01:10
Cela pourrait conduire à une
00:01:11
érosion générale de la confiance
00:01:13
dans les médias vidéo et audio,
00:01:15
où tout peut être remis en question.
00:01:19
L'intelligence artificielle,
00:01:19
y compris les technologies
00:01:21
génératives comme les deepfakes,
00:01:23
repose sur des données pour
00:01:25
apprendre et généraliser.
00:01:26
Ces données proviennent du monde
00:01:28
réel et tout comme notre monde
00:01:30
a des inégalités et des stéréotypes,
00:01:33
ces inégalités peuvent se refléter
00:01:35
dans les données. Lorsqu'une IA est
00:01:37
formée sur des données biaisées,
00:01:39
elle peut intégrer et perpétuer ces biais.
00:01:42
Ainsi, si les deepfakes sont utilisés pour,
00:01:45
disons,
00:01:45
générer des échantillons de voix ou
00:01:47
de visages qui ne représentent pas
00:01:49
équitablement la diversité du monde réel,
00:01:52
alors
00:01:52
l'IA qui apprend de ces
00:01:54
échantillons sera elle-même biaisée
00:01:56
conduisant à des systèmes discriminatoires.
00:02:00
Un système d'IA pour la reconnaissance
00:02:02
vocale qui serait formée principalement
00:02:04
sur des voix masculines,
00:02:05
pourrait avoir du mal à reconnaître
00:02:07
et à comprendre correctement
00:02:09
les voix féminines ou d'autres
00:02:11
voix qui ne correspondent pas au
00:02:13
modèle sur lequel il a été formé.
00:02:15
Avec la propagation des deepfakes,
00:02:17
la réalité objective pourrait être
00:02:19
mise à mal. Si tout peut être falsifié,
00:02:22
le concept même de vérité pourrait
00:02:24
être érodé, avec des conséquences
00:02:26
profondes pour la société.
00:02:28
À mesure que les deepfakes deviennent
00:02:30
de plus en plus sophistiqués et
00:02:32
indiscernables de la réalité,
00:02:34
le public pourrait commencer à douter
00:02:36
systématiquement de la véracité
00:02:38
de tout contenu vidéo ou audio,
00:02:40
qu'il s'agisse de nouvelles,
00:02:42
de documentaires ou d'entretiens.
00:02:44
Cela pourrait aboutir à une société où
00:02:45
les gens ne croient plus ce qu'ils voient
00:02:48
ou entendent,
00:02:49
rendant la diffusion d'informations
00:02:51
fiables extrêmement difficile.
00:02:53
Les organisations médiatiques
00:02:54
pourraient avoir besoin d'adopter
00:02:56
de nouvelles méthodes de validation
00:02:58
et de certification pour prouver
00:03:00
l'authenticité de leur contenu. Dans
00:03:01
un monde où la vérité objective
00:03:03
est mise en doute,
00:03:04
les individus pourraient se
00:03:06
tourner davantage vers des sources
00:03:08
d'information qui confirment leurs
00:03:10
croyances préexistantes,
00:03:11
renforçant les chambres d'écho
00:03:13
et la polarisation.
00:03:14
Les deepfakes pourraient être
00:03:16
utilisés pour soutenir des théories
00:03:18
du complot, et étant donné que ces
00:03:21
vidéos seraient difficiles à réfuter,
00:03:23
ces théories pourraient gagner en
00:03:25
popularité et en influence.
00:03:27
Cela pourrait entraîner une fragmentation
00:03:28
accrue de la société avec des
00:03:31
groupes de plus en plus isolés et en
00:03:33
désaccord sur les faits fondamentaux.
00:03:37
Les démocraties reposent sur un
00:03:39
électorat informé pour fonctionner
00:03:41
efficacement. Si les citoyens ne peuvent
00:03:43
pas discerner le vrai du faux en raison
00:03:45
de la prolifération de deepfakes,
00:03:47
cela pourrait compromettre
00:03:49
le processus démocratique.
00:03:51
Les campagnes électorales pourraient
00:03:52
être marquées par des vidéos falsifiées
00:03:55
destinées à discréditer les opposants.
00:03:57
Et les élections pourraient être influencées
00:04:00
par des informations trompeuses.
00:04:02
La confiance dans les institutions
00:04:05
démocratiques pourrait diminuer,
00:04:06
entraînant une instabilité politique et un
00:04:09
affaiblissement des valeurs démocratiques.
00:04:11
Comment légiférer sur cette
00:04:13
technologie en évolution rapide ?
00:04:17
Le débat entre l'innovation et la
00:04:19
réglementation est plus vif que jamais.
00:04:21
Historiquement, la technologie a
00:04:23
souvent évolué plus rapidement que la
00:04:26
capacité de la société à l'encadrer.
00:04:28
Lorsque l'internet a commencé
00:04:29
à se populariser par exemple,
00:04:31
il a fallu des années avant que
00:04:33
des lois sur la vie privée,
00:04:35
le droit d'auteur ou la
00:04:37
cybersécurité soient établies. Avec l'IA
00:04:39
générative,
00:04:39
le défi est encore plus grand car
00:04:42
la technologie a le potentiel de
00:04:44
transformer de nombreux aspects de notre vie,
00:04:46
des médias à la politique, en
00:04:49
passant par l'économie.
00:04:50
Les premiers problèmes posés par
00:04:52
l'apparition des deepfakes étaient
00:04:54
principalement d'ordre éthique
00:04:56
ou liés à la désinformation.
00:04:58
Cependant,
00:04:58
il n'existait pas au départ de
00:05:01
réglementation claire pour pénaliser
00:05:03
ou encadrer la création et la
00:05:05
diffusion de deepfakes malveillants.
00:05:07
Une réglementation stricte
00:05:09
peut entraver l'innovation.
00:05:11
Si l'on impose des restrictions
00:05:12
sévères sur la recherche et le
00:05:14
développement en IA générative,
00:05:15
cela pourrait empêcher des découvertes
00:05:18
potentiellement bénéfiques pour la société.
00:05:21
Par ailleurs,
00:05:21
une réglementation trop stricte peut
00:05:24
pousser les innovateurs à délocaliser
00:05:26
leurs recherches dans des pays où
00:05:28
la législation est plus clémente.
00:05:30
Supposons que la réglementation
00:05:31
impose un processus d'approbation
00:05:33
long et coûteux pour toute
00:05:35
nouvelle application de l'IA
00:05:36
générative.
00:05:37
Cela pourrait décourager les startups
00:05:39
et les innovateurs individuels,
00:05:42
favorisant ainsi les grandes entreprises
00:05:44
disposant de ressources importantes.
00:05:49
L'équilibre idéal entre innovation
00:05:52
et réglementation nécessite une
00:05:54
collaboration étroite entre les
00:05:56
décideurs politiques, les chercheurs,
00:05:58
les entreprises et la société civile.
00:06:01
Il est essentiel d'avoir des discussions
00:06:04
ouvertes et inclusives pour comprendre
00:06:06
les implications de la technologie et
00:06:09
créer une réglementation qui protège la
00:06:12
société tout en favorisant l'innovation.
00:06:14
Certains pays ont commencé à établir
00:06:16
des comités d'éthique en matière d'IA,
00:06:18
composés d'experts de divers domaines
00:06:21
pour guider la création de législation.
00:06:23
Ces comités examinent les implications
00:06:26
éthiques, sociales et économiques de l'IA
00:06:28
et conseillent les gouvernements sur
00:06:30
la manière d'encadrer la technologie.
00:06:32
L'IA générative, malgré ces dangers,
00:06:35
offre des opportunités sans précédent.
00:06:38
Elle peut améliorer des vies,
00:06:39
créer des solutions et enrichir notre
00:06:42
culture. Guidés par la responsabilité,
00:06:45
l'éthique et la collaboration,
00:06:47
nous pouvons façonner l'avenir de l'IA
00:06:49
générative pour le bien de tous.
00:06:51
Face à ces défis,
00:06:54
l'éducation est primordiale.
00:06:55
Une formation solide permet
00:06:57
de comprendre les enjeux,
00:06:58
d'adopter des outils et de
00:07:00
poser des questions éclairées.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:05
Generative KI ist das Herzstück von
00:00:07
neue technologische Grenzen,
00:00:08
die Art und Weise, wie wir sehen und
00:00:11
schaffen. Überwältigende visuelle Kunst von
00:00:13
Midjourney, Googles DeepDream in den USA
00:00:16
ausgefeilte Melodien aus openAI MuseNet,
00:00:18
Kreative Grenzen scheinen zu verschwimmen.
00:00:21
Mit der Magie kommt jedoch auch die Bosheit.
00:00:25
Deepfakes verwischen die
00:00:27
Grenzen zwischen echt und falsch,
00:00:29
ethische Probleme aufwerfen.
00:00:31
Deepfakes können verwendet werden
00:00:33
um gefälschte Videos oder Audios zu erstellen, die
00:00:36
Zeigen Sie Personen des öffentlichen Lebens
00:00:37
oder Politiker, die sagen oder machen
00:00:40
Dinge, die sie nie gesagt oder getan haben.
00:00:43
Dies kann verwendet werden, um zu senden
00:00:45
falsche Angaben oder
00:00:48
Propaganda, die die öffentliche Meinung manipuliert.
00:00:50
Deepfakes könnten verwendet werden
00:00:52
nationalen Führern nacheifern
00:00:54
oder Militäroffiziere,
00:00:55
Erstellen von Videos, die
00:00:58
diplomatische Krisen auslösen,
00:00:59
oder gar Konflikte.
00:01:02
Da Deepfakes immer häufiger vorkommen
00:01:04
immer überzeugender,
00:01:06
Schwierig wird es für das Publikum
00:01:08
Wahrheit von Lüge zu unterscheiden.
00:01:10
Dies könnte zu einer
00:01:11
Allgemeine Erosion des Vertrauens
00:01:13
in Video- und Audiomedien,
00:01:15
wo alles hinterfragt werden kann.
00:01:19
Künstliche Intelligenz
00:01:19
einschließlich Technologien
00:01:21
generative wie Deepfakes,
00:01:23
basiert auf Daten für
00:01:25
Lernen und verallgemeinern.
00:01:26
Diese Daten stammen aus der ganzen Welt
00:01:28
Und genau wie unsere Welt
00:01:30
Ungleichheiten und Stereotypen,
00:01:33
Diese Ungleichheiten spiegeln sich in der
00:01:35
in den Daten. Wenn eine KI
00:01:37
mit verzerrten Daten geschult wurden,
00:01:39
Sie kann diese Vorurteile integrieren und aufrechterhalten.
00:01:42
Wenn also Deepfakes verwendet werden,
00:01:45
sagen
00:01:45
Stimmproben generieren oder
00:01:47
Gesichter, die nicht
00:01:49
gerechte Vielfalt in der realen Welt,
00:01:52
dann
00:01:52
KI, die daraus lernt
00:01:54
Stichproben werden selbst verzerrt sein
00:01:56
diskriminierende Systeme führen.
00:02:00
Ein KI-System zur Erkennung
00:02:02
die in erster Linie gebildet werden
00:02:04
auf männliche Stimmen,
00:02:05
Schwierigkeiten haben könnten,
00:02:07
und richtig zu verstehen
00:02:09
weibliche Stimmen oder andere
00:02:11
Stimmen, die nicht mit der
00:02:13
Modell, an dem er ausgebildet wurde.
00:02:15
Mit der Verbreitung von Deepfakes
00:02:17
Die objektive Realität könnte sein:
00:02:19
unterminiert. Wenn alles falsifiziert werden kann,
00:02:22
Der Begriff der Wahrheit selbst könnte
00:02:24
erodiert werden, mit Folgen
00:02:26
für die Gesellschaft.
00:02:28
Da Deepfakes immer häufiger vorkommen
00:02:30
immer ausgefeilteren und
00:02:32
von der Realität nicht zu unterscheiden,
00:02:34
Die Öffentlichkeit könnte anfangen zu zweifeln
00:02:36
Konsequente Wahrhaftigkeit
00:02:38
Video- oder Audioinhalte,
00:02:40
ob es sich um Neuigkeiten handelt,
00:02:42
Dokumentarfilme oder Interviews.
00:02:44
Dies könnte zu einer Gesellschaft führen, in der
00:02:45
Die Menschen glauben nicht mehr, was sie sehen
00:02:48
oder höre,
00:02:49
Verbreitung von Informationen
00:02:51
extrem schwierige Zuverlässigkeit.
00:02:53
Medienunternehmen
00:02:54
Möglicherweise müssen Sie
00:02:56
Neue Validierungsmethoden
00:02:58
und Zertifizierung zum Nachweis
00:03:00
die Authentizität ihres Inhalts. In
00:03:01
Eine Welt, in der die objektive Wahrheit
00:03:03
im Zweifel ist,
00:03:04
Einzelpersonen könnten
00:03:06
Sich mehr den Quellen zuwenden
00:03:08
Informationen, die ihre
00:03:10
bereits bestehende Glaubenssätze,
00:03:11
Verstärkung von Echokammern
00:03:13
und Polarisation.
00:03:14
Deepfakes könnten sein
00:03:16
zur Unterstützung von Theorien verwendet
00:03:18
Verschwörung und angesichts der Tatsache, dass diese
00:03:21
Videos wären schwer zu widerlegen,
00:03:23
Diese Theorien könnten an Bedeutung gewinnen.
00:03:25
Popularität und Einfluss.
00:03:27
Dies könnte zu einer Fragmentierung führen
00:03:28
Zunahme der Gesellschaft mit
00:03:31
Gruppen, die zunehmend isoliert sind und
00:03:33
Meinungsverschiedenheiten über die grundlegenden Fakten.
00:03:37
Demokratien beruhen auf einer
00:03:39
Informierte Wählerschaft, um zu funktionieren
00:03:41
effektiv. Wenn die Bürger nicht in der Lage sind,
00:03:43
Nicht durch die Vernunft Wahrheit von Lüge unterscheiden
00:03:45
die Verbreitung von Deepfakes,
00:03:47
Dies könnte die
00:03:49
den demokratischen Prozess.
00:03:51
Wahlkämpfe könnten
00:03:52
mit manipulierten Videos getaggt werden
00:03:55
Gegnern zu diskreditieren.
00:03:57
Und Wahlen könnten beeinflusst werden
00:04:00
durch irreführende Angaben.
00:04:02
Vertrauen in Institutionen
00:04:05
abnehmen könnte,
00:04:06
politische Instabilität und
00:04:09
Schwächung demokratischer Werte.
00:04:11
Wie kann man diesbezüglich Rechtsvorschriften erlassen?
00:04:13
Sich schnell entwickelnde Technologie?
00:04:17
Die Debatte zwischen Innovation und Innovation
00:04:19
Die Regulierung ist intensiver denn je.
00:04:21
Historisch gesehen hat die Technologie
00:04:23
hat sich oft schneller entwickelt als die
00:04:26
die Fähigkeit des Unternehmens, sie zu überwachen.
00:04:28
Als das Internet anfing
00:04:29
um populär zu werden, z.B.
00:04:31
Es hat Jahre gedauert, bis
00:04:33
Datenschutzgesetze,
00:04:35
Urheberrecht oder Urheberrecht
00:04:37
Cybersicherheit ist etabliert. Mit KI
00:04:39
Generativ
00:04:39
Die Herausforderung ist noch größer, denn
00:04:42
Die Technologie hat das Potenzial,
00:04:44
viele Aspekte unseres Lebens zu verändern,
00:04:46
von den Medien bis zur Politik,
00:04:49
durch die Wirtschaft.
00:04:50
Die ersten Probleme, die sich aus der
00:04:52
Das Auftreten von Deepfakes
00:04:54
hauptsächlich ethische
00:04:56
oder im Zusammenhang mit Desinformation.
00:04:58
Aber
00:04:58
Anfangs gab es keine
00:05:01
Klare Regelungen zur Bestrafung
00:05:03
oder die Erstellung und Entwicklung von
00:05:05
Verbreitung von bösartigen Deepfakes.
00:05:07
Strenge Vorschriften
00:05:09
kann Innovationen behindern.
00:05:11
Wenn Einschränkungen auferlegt werden
00:05:12
über Forschung und
00:05:14
generative KI-Entwicklung,
00:05:15
Dies könnte Entdeckungen verhindern
00:05:18
potenziell vorteilhaft für die Gesellschaft.
00:05:21
Außerdem
00:05:21
Eine zu strenge Regulierung kann
00:05:24
Innovatoren dazu bringen, ihren Standort zu verlagern
00:05:26
ihre Forschung in Ländern, in denen
00:05:28
Die Gesetzgebung ist milder.
00:05:30
Nehmen wir an, dass die Verordnungen
00:05:31
erzwingt ein Genehmigungsverfahren
00:05:33
zeitaufwändig und kostspielig für jeden
00:05:35
Neue Anwendung von KI
00:05:36
Generativ.
00:05:37
Dies könnte Startups abschrecken
00:05:39
und einzelne Innovatoren,
00:05:42
Bevorzugung großer Unternehmen
00:05:44
mit erheblichen Ressourcen.
00:05:49
Die ideale Balance der Innovation
00:05:52
und die Regulierung erfordert eine
00:05:54
enge Zusammenarbeit zwischen den
00:05:56
politische Entscheidungsträger, Forscher,
00:05:58
Wirtschaft und Zivilgesellschaft.
00:06:01
Es ist wichtig, Diskussionen zu führen
00:06:04
offen und inklusiv zu verstehen
00:06:06
die Implikationen der Technologie und
00:06:09
Vorschriften zu schaffen, die die
00:06:12
Gesellschaft zu fördern und gleichzeitig Innovationen zu fördern.
00:06:14
Einige Länder haben damit begonnen,
00:06:16
KI-Ethikkommissionen,
00:06:18
bestehend aus Experten aus verschiedenen Bereichen
00:06:21
als Richtschnur für die Schaffung von Rechtsvorschriften.
00:06:23
Diese Ausschüsse befassen sich mit den Auswirkungen der
00:06:26
Ethische, soziale und ökonomische Aspekte von KI
00:06:28
und beraten Regierungen in Bezug auf
00:06:30
wie man die Technologie rahmt.
00:06:32
Generative KI ist trotz dieser Gefahren
00:06:35
bietet noch nie dagewesene Möglichkeiten.
00:06:38
Es kann das Leben verbessern,
00:06:39
Schaffen Sie Lösungen und bereichern Sie unsere
00:06:42
Kultur. Angetrieben von Verantwortung,
00:06:45
Ethik und Zusammenarbeit,
00:06:47
Wir können die Zukunft der KI gestalten
00:06:49
Generativ zum Wohle aller.
00:06:51
Angesichts dieser Herausforderungen
00:06:54
Bildung steht an erster Stelle.
00:06:55
Eine solide Ausbildung ermöglicht
00:06:57
verstehen, was auf dem Spiel steht,
00:06:58
Instrumente zu übernehmen und
00:07:00
Stellen Sie fundierte Fragen.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:05
La IA generativa está en el corazón de
00:00:07
nueva frontera tecnológica,
00:00:08
transformando la forma en que vemos y
00:00:11
crear. Arte visual alucinante de
00:00:13
Midjourney, el DeepDream de Google en Estados Unidos
00:00:16
sofisticadas melodías de openAI MuseNet,
00:00:18
Los límites creativos parecen difuminarse.
00:00:21
Sin embargo, con la magia viene la malicia.
00:00:25
Los deepfakes difuminan el
00:00:27
límites entre lo real y lo falso,
00:00:29
planteando enormes problemas éticos.
00:00:31
Se pueden utilizar deepfakes
00:00:33
para crear videos o audios falsos que
00:00:36
Figuras públicas destacadas
00:00:37
o políticos que dicen o hacen
00:00:40
cosas que nunca dijeron ni hicieron.
00:00:43
Esto se puede utilizar para transmitir
00:00:45
información falsa o
00:00:48
propaganda que manipula la opinión pública.
00:00:50
Se podrían utilizar deepfakes
00:00:52
para emular a los líderes nacionales
00:00:54
u oficiales militares,
00:00:55
crear videos que puedan
00:00:58
desencadenando crisis diplomáticas,
00:00:59
o incluso conflictos.
00:01:02
A medida que los deepfakes se vuelven más frecuentes
00:01:04
cada vez más convincente,
00:01:06
Se vuelve difícil para la audiencia
00:01:08
discernir la verdad de la falsedad.
00:01:10
Esto podría llevar a una
00:01:11
Erosión general de la confianza
00:01:13
en medios de vídeo y audio,
00:01:15
donde todo puede ser cuestionado.
00:01:19
Inteligencia artificial
00:01:19
incluyendo tecnologías
00:01:21
generativos como los deepfakes,
00:01:23
se basa en datos de
00:01:25
Aprender y generalizar.
00:01:26
Estos datos provienen de todo el mundo
00:01:28
y al igual que nuestro mundo
00:01:30
desigualdades y estereotipos,
00:01:33
Estas desigualdades pueden reflejarse en la
00:01:35
en los datos. Cuando una IA es
00:01:37
entrenado con datos sesgados,
00:01:39
puede integrar y perpetuar estos sesgos.
00:01:42
Por lo tanto, si los deepfakes están acostumbrados a,
00:01:45
decir
00:01:45
generar muestras de voz, o
00:01:47
rostros que no representan
00:01:49
diversidad equitativa en el mundo real,
00:01:52
entonces
00:01:52
IA que aprende de estos
00:01:54
Las muestras en sí mismas estarán sesgadas
00:01:56
que conducen a sistemas discriminatorios.
00:02:00
Un sistema de IA para el reconocimiento
00:02:02
que se formarían principalmente
00:02:04
en las voces masculinas,
00:02:05
podría tener problemas para reconocer
00:02:07
y para entender correctamente
00:02:09
voces femeninas u otras
00:02:11
voces que no coinciden con el
00:02:13
modelo en el que se formó.
00:02:15
Con la difusión de los deepfakes,
00:02:17
La realidad objetiva podría ser
00:02:19
Socavado. Si todo puede ser falsificado,
00:02:22
El concepto mismo de verdad podría
00:02:24
se erosione, con consecuencias
00:02:26
para la sociedad.
00:02:28
A medida que los deepfakes se vuelven más frecuentes
00:02:30
cada vez más sofisticado y
00:02:32
indistinguible de la realidad,
00:02:34
El público podría empezar a dudar
00:02:36
Veracidad constante
00:02:38
cualquier contenido de video o audio,
00:02:40
ya sea noticia,
00:02:42
documentales o entrevistas.
00:02:44
Esto podría dar lugar a una sociedad en la que
00:02:45
La gente ya no cree lo que ve
00:02:48
o oír,
00:02:49
Realización de la difusión de la información
00:02:51
confiabilidad extremadamente difícil.
00:02:53
Organizaciones de medios de comunicación
00:02:54
Es posible que tenga que adoptar
00:02:56
Nuevos métodos de validación
00:02:58
y certificación para demostrar
00:03:00
la autenticidad de su contenido. En
00:03:01
Un mundo donde la verdad objetiva
00:03:03
está en duda,
00:03:04
Los individuos podrían
00:03:06
Recurrir más a las fuentes
00:03:08
información que confirme su
00:03:10
creencias preexistentes,
00:03:11
Refuerzo de las cámaras de eco
00:03:13
y la polarización.
00:03:14
Los deepfakes podrían ser
00:03:16
utilizado para apoyar teorías
00:03:18
conspiración, y dado que estos
00:03:21
los videos serían difíciles de refutar,
00:03:23
Estas teorías podrían ganar en
00:03:25
popularidad e influencia.
00:03:27
Esto podría conducir a la fragmentación
00:03:28
aumento de la sociedad con
00:03:31
grupos cada vez más aislados y
00:03:33
desacuerdo sobre los hechos básicos.
00:03:37
Las democracias se basan en una
00:03:39
Electorado informado para funcionar
00:03:41
efectivamente. Si los ciudadanos no pueden
00:03:43
no discernir la verdad de la falsedad por la razón
00:03:45
la proliferación de deepfakes,
00:03:47
Esto podría poner en peligro
00:03:49
el proceso democrático.
00:03:51
Las campañas electorales podrían
00:03:52
Ser etiquetado con videos manipulados
00:03:55
diseñado para desacreditar a los opositores.
00:03:57
Y las elecciones podrían verse influenciadas
00:04:00
por información engañosa.
00:04:02
Confianza en las instituciones
00:04:05
podría disminuir,
00:04:06
lo que conduce a la inestabilidad política y
00:04:09
debilitamiento de los valores democráticos.
00:04:11
¿Cómo legislar al respecto?
00:04:13
¿La tecnología evoluciona rápidamente?
00:04:17
El debate entre innovación e innovación
00:04:19
La regulación es más intensa que nunca.
00:04:21
Históricamente, la tecnología ha
00:04:23
a menudo evolucionó más rápido que el
00:04:26
la capacidad de la empresa para supervisarlo.
00:04:28
Cuando comenzó Internet
00:04:29
para hacerse popular, por ejemplo,
00:04:31
Pasaron años antes de que
00:04:33
leyes de privacidad,
00:04:35
Derechos de autor o derechos de autor
00:04:37
Se establece la ciberseguridad. Con IA
00:04:39
Generativo
00:04:39
El reto es aún mayor porque
00:04:42
La tecnología tiene el potencial de
00:04:44
transformar muchos aspectos de nuestras vidas,
00:04:46
de los medios de comunicación a la política,
00:04:49
a través de la economía.
00:04:50
Los primeros problemas planteados por la
00:04:52
La aparición de los deepfakes fue
00:04:54
Principalmente ético
00:04:56
o relacionados con la desinformación.
00:04:58
Sin embargo
00:04:58
Inicialmente, no había
00:05:01
Regulaciones claras para penalizar
00:05:03
o supervisar la creación y el desarrollo de
00:05:05
Difusión de deepfakes maliciosos.
00:05:07
Regulaciones estrictas
00:05:09
puede obstaculizar la innovación.
00:05:11
Si se imponen restricciones
00:05:12
en investigación y
00:05:14
desarrollo de IA generativa,
00:05:15
Esto podría impedir descubrimientos
00:05:18
potencialmente beneficioso para la sociedad.
00:05:21
Además
00:05:21
Una regulación demasiado estricta puede
00:05:24
Empujar a los innovadores a reubicarse
00:05:26
sus investigaciones en países donde
00:05:28
La legislación es más indulgente.
00:05:30
Supongamos que la normativa
00:05:31
impone un proceso de aprobación
00:05:33
lento y costoso para cualquier
00:05:35
nueva aplicación de la IA
00:05:36
Generativo.
00:05:37
Esto podría desalentar a las startups
00:05:39
y los innovadores individuales,
00:05:42
favoreciendo así a las grandes empresas
00:05:44
con importantes recursos.
00:05:49
El equilibrio ideal entre innovación
00:05:52
y la regulación requiere una
00:05:54
estrecha colaboración entre los
00:05:56
responsables políticos, investigadores,
00:05:58
las empresas y la sociedad civil.
00:06:01
Es esencial tener discusiones
00:06:04
abierto e inclusivo para entender
00:06:06
las implicaciones de la tecnología y
00:06:09
crear regulaciones que protejan la
00:06:12
sociedad, al tiempo que fomenta la innovación.
00:06:14
Algunos países han comenzado a establecer
00:06:16
Comités de ética de la IA,
00:06:18
compuesto por expertos de diversos campos
00:06:21
para orientar la creación de legislación.
00:06:23
Estos comités están analizando las implicaciones de la
00:06:26
Aspectos éticos, sociales y económicos de la IA
00:06:28
y asesorar a los gobiernos sobre
00:06:30
cómo enmarcar la tecnología.
00:06:32
La IA generativa, a pesar de estos peligros,
00:06:35
ofrece oportunidades sin precedentes.
00:06:38
Puede mejorar vidas,
00:06:39
Crear soluciones y enriquecer nuestra
00:06:42
cultura. Impulsados por la responsabilidad,
00:06:45
ética y colaboración,
00:06:47
podemos dar forma al futuro de la IA
00:06:49
generativa para el beneficio de todos.
00:06:51
Frente a estos desafíos,
00:06:54
La educación es primordial.
00:06:55
Un entrenamiento sólido permite
00:06:57
entender lo que está en juego,
00:06:58
adoptar herramientas y
00:07:00
Haz preguntas informadas.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:05
AI Generatif adalah jantung dari
00:00:07
perbatasan teknologi baru,
00:00:08
mengubah cara kita melihat dan
00:00:11
menciptakan. Seni visual yang menakjubkan dari
00:00:13
Midjourney, DeepDream Google di Amerika Serikat
00:00:16
melodi canggih dari openAI MuseNet,
00:00:18
Batas-batas kreatif tampaknya kabur.
00:00:21
Namun, dengan sihir datang kebencian.
00:00:25
Deepfake mengaburkan
00:00:27
batas antara nyata dan salah,
00:00:29
menimbulkan masalah etika yang sangat besar.
00:00:31
Deepfake dapat digunakan
00:00:33
untuk membuat video atau audio palsu yang
00:00:36
Menampilkan tokoh masyarakat
00:00:37
atau politisi mengatakan atau membuat
00:00:40
hal-hal yang tidak pernah mereka katakan atau lakukan.
00:00:43
Ini dapat digunakan untuk menyiarkan
00:00:45
informasi palsu atau
00:00:48
propaganda memanipulasi opini publik.
00:00:50
Deepfake dapat digunakan
00:00:52
untuk meniru pemimpin nasional
00:00:54
atau perwira militer,
00:00:55
Membuat video yang bisa
00:00:58
memicu krisis diplomatik,
00:00:59
atau bahkan konflik.
00:01:02
Karena deepfake menjadi lebih umum
00:01:04
semakin meyakinkan,
00:01:06
Menjadi sulit bagi penonton
00:01:08
untuk membedakan kebenaran dari kepalsuan.
00:01:10
Hal ini dapat menyebabkan
00:01:11
Erosi kepercayaan secara umum
00:01:13
dalam media video dan audio,
00:01:15
Di mana semuanya bisa dipertanyakan.
00:01:19
Kecerdasan buatan,
00:01:19
termasuk teknologi
00:01:21
yang generatif seperti deepfake,
00:01:23
didasarkan pada data untuk
00:01:25
belajar dan menggeneralisasi.
00:01:26
Data ini berasal dari seluruh dunia
00:01:28
Dan sama seperti dunia kita
00:01:30
ketidaksetaraan dan stereotip,
00:01:33
Ketidaksetaraan ini dapat tercermin dalam
00:01:35
dalam data. Ketika AI adalah
00:01:37
dilatih pada data yang bias,
00:01:39
Itu dapat mengintegrasikan dan melanggengkan bias ini.
00:01:42
Jadi, jika deepfake digunakan untuk,
00:01:45
bilang
00:01:45
menghasilkan sampel suara, atau
00:01:47
Wajah yang tidak mewakili
00:01:49
keragaman dunia nyata yang adil,
00:01:52
kemudian
00:01:52
AI yang belajar dari ini
00:01:54
Sampel itu sendiri akan bias
00:01:56
mengarah ke sistem diskriminatif.
00:02:00
Sistem AI untuk pengenalan
00:02:02
yang akan dibentuk terutama
00:02:04
pada suara laki-laki,
00:02:05
mungkin mengalami kesulitan mengenali
00:02:07
dan untuk memahami dengan benar
00:02:09
suara perempuan atau lainnya
00:02:11
suara yang tidak cocok dengan
00:02:13
model tempat dia dilatih.
00:02:15
Dengan penyebaran deepfake,
00:02:17
Realitas objektif bisa jadi
00:02:19
Dirusak. Jika semuanya bisa dipalsukan,
00:02:22
Konsep kebenaran itu sendiri bisa
00:02:24
terkikis, dengan konsekuensi
00:02:26
untuk masyarakat.
00:02:28
Karena deepfake menjadi lebih umum
00:02:30
semakin canggih dan
00:02:32
tidak bisa dibedakan dari kenyataan,
00:02:34
Publik mungkin mulai ragu
00:02:36
Kejujuran secara konsisten
00:02:38
konten video atau audio apa pun,
00:02:40
Entah itu berita,
00:02:42
dokumenter atau wawancara.
00:02:44
Ini bisa menghasilkan masyarakat di mana
00:02:45
Orang-orang tidak percaya apa yang mereka lihat lagi
00:02:48
atau mendengar,
00:02:49
membuat penyebaran informasi
00:02:51
keandalan yang sangat sulit.
00:02:53
Organisasi Media
00:02:54
mungkin perlu mengadopsi
00:02:56
Metode validasi baru
00:02:58
dan sertifikasi untuk membuktikan
00:03:00
keaslian isinya. Di
00:03:01
Dunia di mana kebenaran objektif
00:03:03
diragukan,
00:03:04
Individu bisa
00:03:06
Beralih lebih banyak ke sumber
00:03:08
informasi yang menegaskan
00:03:10
keyakinan yang sudah ada sebelumnya,
00:03:11
Memperkuat ruang gema
00:03:13
dan polarisasi.
00:03:14
Deepfake bisa jadi
00:03:16
digunakan untuk mendukung teori
00:03:18
konspirasi, dan mengingat bahwa ini
00:03:21
video akan sulit untuk disangkal,
00:03:23
Teori-teori ini bisa mendapatkan
00:03:25
popularitas dan pengaruh.
00:03:27
Hal ini dapat menyebabkan fragmentasi
00:03:28
peningkatan masyarakat dengan
00:03:31
kelompok yang semakin terisolasi dan
00:03:33
ketidaksepakatan tentang fakta-fakta dasar.
00:03:37
Demokrasi didasarkan pada
00:03:39
Pemilih yang terinformasi untuk berfungsi
00:03:41
Secara efektif. Jika warga negara tidak dapat
00:03:43
tidak membedakan kebenaran dari kepalsuan dengan akal
00:03:45
proliferasi deepfake,
00:03:47
Ini bisa membahayakan
00:03:49
proses demokrasi.
00:03:51
Kampanye pemilu bisa
00:03:52
ditandai dengan video yang dipalsukan
00:03:55
dirancang untuk mendiskreditkan lawan.
00:03:57
Dan pemilihan bisa dipengaruhi
00:04:00
dengan informasi yang menyesatkan.
00:04:02
Kepercayaan pada institusi
00:04:05
bisa berkurang,
00:04:06
menyebabkan ketidakstabilan politik dan
00:04:09
melemahnya nilai-nilai demokrasi.
00:04:11
Bagaimana membuat undang-undang tentang ini
00:04:13
Teknologi yang berkembang pesat?
00:04:17
Perdebatan antara inovasi dan inovasi
00:04:19
Regulasi lebih intens dari sebelumnya.
00:04:21
Secara historis, teknologi memiliki
00:04:23
sering berevolusi lebih cepat dari
00:04:26
kemampuan perusahaan untuk mengawasinya.
00:04:28
Ketika internet pertama kali dimulai
00:04:29
untuk menjadi populer, misalnya,
00:04:31
Butuh waktu bertahun-tahun sebelumnya
00:04:33
undang-undang privasi,
00:04:35
hak cipta atau hak cipta
00:04:37
Keamanan siber didirikan. Dengan AI
00:04:39
Generatif
00:04:39
Tantangannya bahkan lebih besar karena
00:04:42
Teknologi ini memiliki potensi untuk
00:04:44
mengubah banyak aspek kehidupan kita,
00:04:46
dari media ke politik,
00:04:49
melalui ekonomi.
00:04:50
Masalah pertama yang ditimbulkan oleh
00:04:52
Munculnya deepfake adalah
00:04:54
terutama etis
00:04:56
atau terkait dengan disinformasi.
00:04:58
Namun
00:04:58
Awalnya, tidak ada
00:05:01
Peraturan yang jelas untuk menghukum
00:05:03
atau mengawasi penciptaan dan pengembangan
00:05:05
Penyebaran deepfake berbahaya.
00:05:07
Peraturan ketat
00:05:09
dapat menghambat inovasi.
00:05:11
Jika pembatasan diberlakukan
00:05:12
pada penelitian dan
00:05:14
pengembangan AI generatif,
00:05:15
Ini bisa mencegah penemuan
00:05:18
berpotensi bermanfaat bagi masyarakat.
00:05:21
Selanjutnya
00:05:21
Peraturan yang terlalu ketat dapat
00:05:24
Mendorong inovator untuk pindah
00:05:26
penelitian mereka di negara-negara di mana
00:05:28
Undang-undang lebih lunak.
00:05:30
Mari kita asumsikan bahwa peraturan
00:05:31
memaksakan proses persetujuan
00:05:33
memakan waktu dan mahal untuk apa pun
00:05:35
aplikasi baru AI
00:05:36
Generatif.
00:05:37
Ini bisa membuat startup enggan
00:05:39
dan inovator individu,
00:05:42
sehingga menguntungkan perusahaan besar
00:05:44
dengan sumber daya yang signifikan.
00:05:49
Keseimbangan ideal inovasi
00:05:52
dan regulasi membutuhkan
00:05:54
Kolaborasi erat antara
00:05:56
pembuat kebijakan, peneliti,
00:05:58
bisnis dan masyarakat sipil.
00:06:01
Sangat penting untuk berdiskusi
00:06:04
terbuka dan inklusif untuk dipahami
00:06:06
implikasi dari teknologi dan
00:06:09
membuat peraturan yang melindungi
00:06:12
masyarakat sambil mendorong inovasi.
00:06:14
Beberapa negara sudah mulai membangun
00:06:16
Komite etika AI,
00:06:18
terdiri dari tenaga ahli dari berbagai bidang
00:06:21
untuk memandu pembuatan undang-undang.
00:06:23
Komite-komite ini melihat implikasi dari
00:06:26
Aspek etika, sosial dan ekonomi AI
00:06:28
dan memberi saran kepada pemerintah tentang
00:06:30
Bagaimana membingkai teknologi.
00:06:32
AI generatif, terlepas dari bahaya ini,
00:06:35
menawarkan peluang yang belum pernah terjadi sebelumnya.
00:06:38
Itu dapat meningkatkan kehidupan,
00:06:39
Buat solusi dan perkaya
00:06:42
budaya. Didorong oleh tanggung jawab,
00:06:45
etika dan kolaborasi,
00:06:47
kita dapat membentuk masa depan AI
00:06:49
generatif untuk kepentingan semua.
00:06:51
Dalam menghadapi tantangan ini,
00:06:54
Pendidikan adalah yang terpenting.
00:06:55
Pelatihan yang solid memungkinkan
00:06:57
memahami apa yang dipertaruhkan,
00:06:58
mengadopsi alat dan
00:07:00
Ajukan pertanyaan berdasarkan informasi.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:05
L'IA generativa è al centro di
00:00:07
nuova frontiera tecnologica,
00:00:08
trasformando il modo in cui vediamo e
00:00:11
creare. Arte visiva strabiliante da
00:00:13
Midjourney, il DeepDream di Google negli Stati Uniti
00:00:16
melodie sofisticate di openAI MuseNet,
00:00:18
I confini creativi sembrano sfumare.
00:00:21
Tuttavia, con la magia arriva la malizia.
00:00:25
I deepfake sfocano il
00:00:27
confini tra reale e falso,
00:00:29
ponendo enormi problemi etici.
00:00:31
È possibile utilizzare i deepfake
00:00:33
per creare video o audio falsi che
00:00:36
Personaggi pubblici in primo piano
00:00:37
o politici che dicono o fanno
00:00:40
cose che non hanno mai detto o fatto.
00:00:43
Questo può essere usato per trasmettere
00:00:45
informazioni false o
00:00:48
propaganda che manipola l'opinione pubblica.
00:00:50
I deepfake potrebbero essere utilizzati
00:00:52
per emulare i leader nazionali
00:00:54
o ufficiali militari,
00:00:55
la creazione di video che potrebbero
00:00:58
innescando crisi diplomatiche,
00:00:59
o anche conflitti.
00:01:02
Man mano che i deepfake diventano più diffusi
00:01:04
sempre più convincente,
00:01:06
Diventa difficile per il pubblico
00:01:08
discernere il vero dal falso.
00:01:10
Ciò potrebbe portare a un
00:01:11
Erosione generale della fiducia
00:01:13
nei media video e audio,
00:01:15
dove tutto può essere messo in discussione.
00:01:19
Intelligenza artificiale
00:01:19
comprese le tecnologie
00:01:21
generativi come i deepfake,
00:01:23
si basa sui dati per
00:01:25
Impara e generalizza.
00:01:26
Questi dati provengono da tutto il mondo
00:01:28
e proprio come il nostro mondo
00:01:30
disuguaglianze e stereotipi,
00:01:33
Queste disuguaglianze possono riflettersi nella
00:01:35
nei dati. Quando un'IA è
00:01:37
addestrato su dati distorti,
00:01:39
Può integrare e perpetuare questi pregiudizi.
00:01:42
Quindi, se i deepfake sono abituati a,
00:01:45
dire
00:01:45
generare campioni vocali, oppure
00:01:47
facce che non rappresentano
00:01:49
equa diversità nel mondo reale,
00:01:52
allora
00:01:52
L'IA che impara da questi
00:01:54
i campioni saranno essi stessi distorti
00:01:56
sistemi discriminatori.
00:02:00
Un sistema di intelligenza artificiale per il riconoscimento
00:02:02
che si formerebbe principalmente
00:02:04
su voci maschili,
00:02:05
potrebbe avere difficoltà a riconoscere
00:02:07
e di capire correttamente
00:02:09
voci femminili o altre
00:02:11
voci che non corrispondono al
00:02:13
modello su cui è stato addestrato.
00:02:15
Con la diffusione dei deepfake,
00:02:17
La realtà oggettiva potrebbe essere
00:02:19
Minato. Se tutto può essere falsificato,
00:02:22
Il concetto stesso di verità potrebbe
00:02:24
essere erosa, con conseguenze
00:02:26
per la società.
00:02:28
Man mano che i deepfake diventano più diffusi
00:02:30
sempre più sofisticata e
00:02:32
indistinguibile dalla realtà,
00:02:34
L'opinione pubblica potrebbe iniziare a dubitare
00:02:36
Sempre veridicità
00:02:38
qualsiasi contenuto video o audio,
00:02:40
che si tratti di notizie,
00:02:42
documentari o interviste.
00:02:44
Ciò potrebbe portare a una società in cui
00:02:45
Le persone non credono più a quello che vedono
00:02:48
o ascoltare,
00:02:49
rendere la diffusione delle informazioni
00:02:51
affidabilità estremamente difficile.
00:02:53
Organizzazioni mediatiche
00:02:54
potrebbe essere necessario adottare
00:02:56
Nuovi metodi di convalida
00:02:58
e la certificazione per dimostrare
00:03:00
l'autenticità del loro contenuto. In
00:03:01
Un mondo in cui la verità oggettiva
00:03:03
è in dubbio,
00:03:04
Gli individui potrebbero
00:03:06
Rivolgersi di più alle fonti
00:03:08
informazioni che confermino la loro
00:03:10
credenze preesistenti,
00:03:11
Camere d'eco di rinforzo
00:03:13
e polarizzazione.
00:03:14
I deepfake potrebbero essere
00:03:16
utilizzato per supportare le teorie
00:03:18
cospirazione, e dato che questi
00:03:21
i video sarebbero difficili da confutare,
00:03:23
Queste teorie potrebbero guadagnare in
00:03:25
popolarità e influenza.
00:03:27
Ciò potrebbe portare alla frammentazione
00:03:28
aumento della società con
00:03:31
gruppi sempre più isolati e
00:03:33
disaccordo sui fatti fondamentali.
00:03:37
Le democrazie si basano su un
00:03:39
Elettorato informato per funzionare
00:03:41
efficacemente. Se i cittadini non sono in grado di
00:03:43
non discernere il vero dal falso con la ragione
00:03:45
la proliferazione dei deepfake,
00:03:47
Ciò potrebbe mettere a repentaglio
00:03:49
processo democratico.
00:03:51
Le campagne elettorali potrebbero
00:03:52
essere tagged con video ritoccati
00:03:55
progettato per screditare gli oppositori.
00:03:57
E le elezioni potrebbero essere influenzate
00:04:00
da informazioni fuorvianti.
00:04:02
Fiducia nelle istituzioni
00:04:05
potrebbe diminuire,
00:04:06
che porta all'instabilità politica e
00:04:09
l'indebolimento dei valori democratici.
00:04:11
Come legiferare in materia
00:04:13
Tecnologia in rapida evoluzione?
00:04:17
Il dibattito tra innovazione e innovazione
00:04:19
La regolamentazione è più intensa che mai.
00:04:21
Storicamente, la tecnologia ha
00:04:23
spesso si è evoluto più velocemente del
00:04:26
la capacità dell'azienda di supervisionarlo.
00:04:28
Quando Internet è iniziato per la prima volta
00:04:29
per diventare popolari, ad esempio,
00:04:31
Ci sono voluti anni prima
00:04:33
leggi sulla privacy,
00:04:35
diritto d'autore o diritto d'autore
00:04:37
cibersicurezza. Con l'intelligenza artificiale
00:04:39
Generativo
00:04:39
La sfida è ancora più grande perché
00:04:42
La tecnologia ha il potenziale per
00:04:44
trasformare molti aspetti della nostra vita,
00:04:46
dai media alla politica,
00:04:49
attraverso l'economia.
00:04:50
I primi problemi posti dalla
00:04:52
La comparsa dei deepfake è stata
00:04:54
principalmente etico
00:04:56
o relativi alla disinformazione.
00:04:58
Tuttavia
00:04:58
Inizialmente, non c'era
00:05:01
Norme chiare da penalizzare
00:05:03
supervisionare la creazione e lo sviluppo di
00:05:05
Diffusione di deepfake dannosi.
00:05:07
Normative rigorose
00:05:09
può ostacolare l'innovazione.
00:05:11
Se vengono imposte restrizioni
00:05:12
sulla ricerca e la
00:05:14
sviluppo dell'IA generativa,
00:05:15
Ciò potrebbe impedire le scoperte
00:05:18
potenzialmente vantaggioso per la società.
00:05:21
Inoltre
00:05:21
Una regolamentazione troppo rigida può
00:05:24
Spingere gli innovatori a delocalizzare
00:05:26
la loro ricerca in paesi in cui
00:05:28
La legislazione è più permissiva.
00:05:30
Supponiamo che i regolamenti
00:05:31
impone un processo di approvazione
00:05:33
dispendioso in termini di tempo e costoso per qualsiasi
00:05:35
nuova applicazione dell'IA
00:05:36
Generativo.
00:05:37
Questo potrebbe scoraggiare le startup
00:05:39
e singoli innovatori,
00:05:42
favorendo così le grandi aziende
00:05:44
con risorse significative.
00:05:49
L'equilibrio ideale dell'innovazione
00:05:52
e la regolamentazione richiede un
00:05:54
stretta collaborazione tra le
00:05:56
responsabili politici, ricercatori,
00:05:58
imprese e società civile.
00:06:01
È essenziale avere discussioni
00:06:04
aperto e inclusivo per capire
00:06:06
le implicazioni della tecnologia e
00:06:09
creare regolamenti che tutelino il
00:06:12
promuovendo nel contempo l'innovazione.
00:06:14
Alcuni paesi hanno iniziato a stabilire
00:06:16
comitati etici per l'IA,
00:06:18
composto da esperti di vari settori
00:06:21
per guidare l'elaborazione della legislazione.
00:06:23
Questi comitati stanno esaminando le implicazioni di
00:06:26
Aspetti etici, sociali ed economici dell'IA
00:06:28
e consigliare i governi in merito a
00:06:30
come inquadrare la tecnologia.
00:06:32
L'IA generativa, nonostante questi pericoli,
00:06:35
offre opportunità senza precedenti.
00:06:38
Può migliorare la vita,
00:06:39
Creare soluzioni e arricchire il nostro
00:06:42
cultura. Spinti dalla responsabilità,
00:06:45
etica e collaborazione,
00:06:47
possiamo plasmare il futuro dell'IA
00:06:49
generativo a beneficio di tutti.
00:06:51
Di fronte a queste sfide,
00:06:54
L'istruzione è fondamentale.
00:06:55
Una solida formazione permette di
00:06:57
capire qual è la posta in gioco,
00:06:58
adottare strumenti e
00:07:00
Poni domande informate.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:05
ジェネレーティブAIは、
00:00:07
新しい技術フロンティア、
00:00:08
見方を変え、
00:00:11
創造する。の心を揺さぶるビジュアルアート
00:00:13
Midjourney、米国におけるGoogleのDeepDream
00:00:16
openAI MuseNetの洗練されたメロディー、
00:00:18
クリエイティブな境界は曖昧になりつつあるようです。
00:00:21
しかし、魔法には悪意が伴います。
00:00:25
ディープフェイクは、
00:00:27
実数と偽の境界、
00:00:29
大きな倫理的問題を提起しています。
00:00:31
ディープフェイクが使える
00:00:33
偽の動画や音声を作成すること。
00:00:36
著名人を特集
00:00:37
または政治家が言ったり作ったりします
00:00:40
彼らが決して言ったり、しなかったりしたこと。
00:00:43
これは、ブロードキャストに使用できます
00:00:45
虚偽の情報や
00:00:48
世論を操るプロパガンダ。
00:00:50
ディープフェイクが使える可能性
00:00:52
国家の指導者を見習うこと
00:00:54
または軍の将校、
00:00:55
できる動画の作成
00:00:58
外交危機の引き金を引く
00:00:59
あるいは対立さえも。
00:01:02
ディープフェイクが蔓延するにつれ
00:01:04
ますます説得力が増し、
00:01:06
観客にとって難しくなる
00:01:08
真実と虚偽を見分けること。
00:01:10
これにより、
00:01:11
信頼の全般的な浸食
00:01:13
映像・音声メディアでは、
00:01:15
そこでは、すべてが疑問視されます。
00:01:19
人工知能
00:01:19
技術を含む
00:01:21
ディープフェイクのような生成的なもの、
00:01:23
は、
00:01:25
学習し、一般化します。
00:01:26
このデータは世界中から来ています
00:01:28
そして、私たちの世界と同じように
00:01:30
不平等と固定観念、
00:01:33
これらの不等式は、
00:01:35
データ内。AIが
00:01:37
偏ったデータでトレーニングされ、
00:01:39
これらのバイアスを統合し、永続させることができます。
00:01:42
ですから、ディープフェイクが慣れているなら、
00:01:45
言う
00:01:45
音声サンプルを生成する、または
00:01:47
表さない面
00:01:49
公平な現実世界の多様性、
00:01:52
そうしたら
00:01:52
これらから学習するAI
00:01:54
サンプル自体に偏りが生じます
00:01:56
差別的なシステムにつながる。
00:02:00
認識のためのAIシステム
00:02:02
これは主に形成されます
00:02:04
男性の声で、
00:02:05
認識に問題がある可能性があります
00:02:07
そして正しく理解すること
00:02:09
女性の声など
00:02:11
と一致しない音声
00:02:13
彼が訓練されたモデル。
00:02:15
ディープフェイクの蔓延に伴い、
00:02:17
客観的な現実は、
00:02:19
損 なわ。全てを改ざんできるなら、
00:02:22
真理という概念そのものが、
00:02:24
侵食され、結果が生じる
00:02:26
社会のために。
00:02:28
ディープフェイクが蔓延するにつれ
00:02:30
ますます洗練され、
00:02:32
現実と見分けがつかない、
00:02:34
世間は疑問を抱き始めるかもしれない
00:02:36
一貫した誠実さ
00:02:38
ビデオまたはオーディオコンテンツ、
00:02:40
ニュースであろうとなかろうと、
00:02:42
ドキュメンタリーやインタビュー。
00:02:44
その結果、次のような社会が生まれる可能性があります。
00:02:45
人々はもう見たものを信じていません
00:02:48
または聞いて、
00:02:49
情報発信
00:02:51
信頼性は極めて難しい。
00:02:53
報道機関
00:02:54
採用する必要があるかもしれません
00:02:56
新しい検証方法
00:02:58
証明する認証
00:03:00
その内容の信憑性。で
00:03:01
客観的な真実がある世界
00:03:03
疑問に思っている場合は、
00:03:04
個人は
00:03:06
ソースに目を向ける
00:03:08
それを裏付ける情報
00:03:10
既存の信念、
00:03:11
エコーチェンバーの強化
00:03:13
そして分極。
00:03:14
ディープフェイクは、
00:03:16
理論の裏付けに使用
00:03:18
陰謀、そしてこれらを考えると
00:03:21
動画は反論が難しいでしょうが、
00:03:23
これらの理論は、
00:03:25
人気と影響力。
00:03:27
これにより、断片化が発生する可能性があります
00:03:28
社会の高められたとの
00:03:31
ますます孤立し、
00:03:33
基本的な事実に関する意見の相違。
00:03:37
民主主義は、
00:03:39
有権者に情報を提供する
00:03:41
効果的。市民ができない場合
00:03:43
理性によって真理と虚偽を見分けない
00:03:45
ディープフェイクの蔓延
00:03:47
これは危険にさらされる可能性があります
00:03:49
民主的なプロセス。
00:03:51
選挙運動は、
00:03:52
加工された動画でタグ付けされる
00:03:55
対戦相手の信用を落とすように設計されています。
00:03:57
そして、選挙は影響を受ける可能性があります
00:04:00
誤解を招くような情報によって。
00:04:02
機関への信頼
00:04:05
減少する可能性がある、
00:04:06
政情不安を招き、
00:04:09
民主的価値観の弱体化。
00:04:11
これをどのように立法化するか
00:04:13
急速に進化するテクノロジー?
00:04:17
イノベーションとイノベーションの議論
00:04:19
規制はかつてないほど厳しくなっています。
00:04:21
歴史的に見ても、テクノロジーは
00:04:23
多くの場合、
00:04:26
それを監督する会社の能力。
00:04:28
インターネットが始まった頃
00:04:29
たとえば、人気者になるには、
00:04:31
何年もかかった
00:04:33
プライバシー法、
00:04:35
著作権または著作権
00:04:37
サイバーセキュリティが確立されています。AIで
00:04:39
生成
00:04:39
課題はさらに大きくなります。
00:04:42
この技術には、次のような可能性が秘められています。
00:04:44
私たちの生活の多くの側面を変え、
00:04:46
メディアから政治まで、
00:04:49
経済を通じて。
00:04:50
によって提起される最初の問題
00:04:52
ディープフェイクの登場は、
00:04:54
主に倫理的
00:04:56
または偽情報に関連するもの。
00:04:58
しかし
00:04:58
当初は、
00:05:01
ペナルティを課すための明確な規制
00:05:03
またはの作成と開発を監督します
00:05:05
悪質なディープフェイクの拡散。
00:05:07
厳しい規制
00:05:09
イノベーションの妨げになる。
00:05:11
制限が課せられている場合
00:05:12
研究と
00:05:14
ジェネレーティブAI開発、
00:05:15
これにより、検出が妨げられる可能性があります
00:05:18
社会に利益をもたらす可能性があります。
00:05:21
その上
00:05:21
過度に厳しい規制は、
00:05:24
イノベーターの移転を後押し
00:05:26
各国での研究
00:05:28
法律はより寛大です。
00:05:30
規制が
00:05:31
承認プロセスを課す
00:05:33
あらゆる人にとって時間とコストがかかる
00:05:35
AIの新たな応用
00:05:36
生成。
00:05:37
これはスタートアップの意欲を削ぐ可能性があります
00:05:39
そして個々のイノベーター、
00:05:42
したがって、大企業に有利です
00:05:44
かなりのリソースを持っています。
00:05:49
イノベーションの理想的なバランス
00:05:52
規制には、
00:05:54
間の緊密なコラボレーション
00:05:56
政策立案者、研究者、
00:05:58
ビジネスと市民社会。
00:06:01
議論は欠かせません
00:06:04
オープンでインクルーシブな理解
00:06:06
テクノロジーの影響
00:06:09
を保護する規制を作成します。
00:06:12
イノベーションを育みながら社会を創造する。
00:06:14
一部の国では、
00:06:16
AI倫理委員会、
00:06:18
各分野の専門家で構成
00:06:21
法律の作成を導くため。
00:06:23
これらの委員会は、
00:06:26
AIの倫理的、社会的、経済的側面
00:06:28
政府に助言する
00:06:30
テクノロジーをどう組み立てるか。
00:06:32
ジェネレーティブAIは、これらの危険性にもかかわらず、
00:06:35
前例のない機会を提供します。
00:06:38
それは生活を改善することができます、
00:06:39
ソリューションを作成し、
00:06:42
文化。責任感に突き動かされ、
00:06:45
倫理とコラボレーション、
00:06:47
AIの未来を形作る
00:06:49
すべての人の利益のための生成。
00:06:51
これらの課題に直面して、
00:06:54
教育は最も重要です。
00:06:55
堅実なトレーニングにより、
00:06:57
何が危機に瀕しているかを理解し、
00:06:58
ツールを採用し、
00:07:00
情報に基づいた質問をします。

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:05
Generatieve AI vormt de kern van
00:00:07
nieuwe technologische grensverleggendheid,
00:00:08
het transformeren van de manier waarop we kijken en
00:00:11
scheppen. Geestverruimende beeldende kunst van
00:00:13
Midjourney, Google's DeepDream in de Verenigde Staten
00:00:16
geavanceerde melodieën van openAI MuseNet,
00:00:18
Creatieve grenzen lijken te vervagen.
00:00:21
Met magie komt echter boosaardigheid.
00:00:25
Deepfakes vervagen de
00:00:27
grenzen tussen echt en vals,
00:00:29
met enorme ethische problemen tot gevolg.
00:00:31
Deepfakes kunnen worden gebruikt
00:00:33
om nepvideo's of -audio te maken die
00:00:36
Uitgelichte publieke figuren
00:00:37
of politici die zeggen of maken
00:00:40
dingen die ze nooit hebben gezegd of gedaan.
00:00:43
Dit kan worden gebruikt om uit te zenden
00:00:45
onjuiste informatie of
00:00:48
propaganda die de publieke opinie manipuleert.
00:00:50
Deepfakes kunnen worden gebruikt
00:00:52
om nationale leiders na te streven
00:00:54
of militaire officieren,
00:00:55
video's maken die
00:00:58
het uitlokken van diplomatieke crises,
00:00:59
of zelfs conflicten.
00:01:02
Naarmate deepfakes vaker voorkomen
00:01:04
steeds overtuigender,
00:01:06
Het wordt moeilijk voor het publiek
00:01:08
om waarheid van leugen te onderscheiden.
00:01:10
Dit kan leiden tot een
00:01:11
Algemene erosie van vertrouwen
00:01:13
in video- en audiomedia,
00:01:15
waar alles in twijfel kan worden getrokken.
00:01:19
Kunstmatige intelligentie
00:01:19
met inbegrip van technologieën
00:01:21
generatieve zoals deepfakes,
00:01:23
is gebaseerd op gegevens voor
00:01:25
Leren en generaliseren.
00:01:26
Deze gegevens komen van over de hele wereld
00:01:28
En net als onze wereld
00:01:30
ongelijkheden en stereotypen,
00:01:33
Deze ongelijkheden kunnen worden weerspiegeld in de
00:01:35
in de gegevens. Wanneer een AI
00:01:37
getraind op bevooroordeelde gegevens,
00:01:39
Het kan deze vooroordelen integreren en bestendigen.
00:01:42
Dus, als deepfakes gewend zijn,
00:01:45
zeggen
00:01:45
spraakvoorbeelden genereren, of
00:01:47
gezichten die niet representeren
00:01:49
billijke diversiteit in de echte wereld,
00:01:52
dan
00:01:52
AI die hiervan leert
00:01:54
Monsters zullen zelf bevooroordeeld zijn
00:01:56
wat leidt tot discriminerende systemen.
00:02:00
Een AI-systeem voor herkenning
00:02:02
die in de eerste plaats zou worden gevormd
00:02:04
op mannenstemmen,
00:02:05
kan moeite hebben met herkennen
00:02:07
en om het goed te begrijpen
00:02:09
vrouwenstemmen of anderen
00:02:11
stemmen die niet overeenkomen met de
00:02:13
model waarop hij is opgeleid.
00:02:15
Met de verspreiding van deepfakes,
00:02:17
Objectieve werkelijkheid zou kunnen zijn
00:02:19
Ondermijnd. Als alles vervalst kan worden,
00:02:22
Het concept van waarheid zelf zou
00:02:24
worden uitgehold, met alle gevolgen van dien
00:02:26
voor de samenleving.
00:02:28
Naarmate deepfakes vaker voorkomen
00:02:30
steeds geavanceerder en
00:02:32
niet van de werkelijkheid te onderscheiden,
00:02:34
Het publiek zou kunnen gaan twijfelen
00:02:36
Consequent waarheidsgetrouw
00:02:38
video- of audio-inhoud,
00:02:40
Of het nu nieuws is,
00:02:42
documentaires of interviews.
00:02:44
Dit zou kunnen leiden tot een samenleving waarin
00:02:45
Mensen geloven niet meer wat ze zien
00:02:48
of horen,
00:02:49
het verspreiden van informatie
00:02:51
Uiterst moeilijke betrouwbaarheid.
00:02:53
Media-organisaties
00:02:54
moet mogelijk worden geadopteerd
00:02:56
Nieuwe validatiemethoden
00:02:58
en certificering om te bewijzen
00:03:00
de authenticiteit van hun inhoud. In
00:03:01
Een wereld waarin objectieve waarheid
00:03:03
twijfelt,
00:03:04
Individuen konden
00:03:06
Meer naar bronnen
00:03:08
informatie die hun
00:03:10
reeds bestaande overtuigingen,
00:03:11
Versterking van echokamers
00:03:13
en polarisatie.
00:03:14
Deepfakes kunnen zijn
00:03:16
Gebruikt om theorieën te ondersteunen
00:03:18
samenzwering, en gezien het feit dat deze
00:03:21
video's moeilijk te weerleggen zijn,
00:03:23
Deze theorieën zouden kunnen winnen in
00:03:25
populariteit en invloed.
00:03:27
Dit kan leiden tot versnippering
00:03:28
toename van de samenleving met
00:03:31
groepen die steeds meer geïsoleerd raken en
00:03:33
onenigheid over de basisfeiten.
00:03:37
Democratieën zijn gebaseerd op een
00:03:39
Geïnformeerde kiezers om te functioneren
00:03:41
effectief. Als burgers niet in staat zijn om
00:03:43
Waarheid niet onderscheiden van leugen door de rede
00:03:45
de proliferatie van deepfakes,
00:03:47
Dit kan de
00:03:49
het democratische proces.
00:03:51
Verkiezingscampagnes kunnen
00:03:52
Getagd worden met gemanipuleerde video's
00:03:55
ontworpen om tegenstanders in diskrediet te brengen.
00:03:57
En verkiezingen kunnen worden beïnvloed
00:04:00
door misleidende informatie.
00:04:02
Vertrouwen in instituties
00:04:05
zou kunnen afnemen,
00:04:06
politieke instabiliteit en
00:04:09
verzwakking van democratische waarden.
00:04:11
Hoe dit wettelijk vast te leggen
00:04:13
Snel evoluerende technologie?
00:04:17
Het debat tussen innovatie en innovatie
00:04:19
De regelgeving is intensiever dan ooit.
00:04:21
Historisch gezien heeft technologie
00:04:23
evolueerden vaak sneller dan de
00:04:26
het vermogen van het bedrijf om er toezicht op te houden.
00:04:28
Toen het internet voor het eerst begon
00:04:29
om populair te worden, bijvoorbeeld
00:04:31
Het heeft jaren geduurd voordat
00:04:33
Privacywetgeving
00:04:35
Auteursrecht of auteursrecht
00:04:37
cyberbeveiliging is vastgesteld. Met AI
00:04:39
Geslachtelijk
00:04:39
De uitdaging is nog groter omdat
00:04:42
De technologie heeft het potentieel om
00:04:44
vele aspecten van ons leven te transformeren,
00:04:46
van de media tot de politiek,
00:04:49
door de economie.
00:04:50
De eerste problemen van de
00:04:52
Het uiterlijk van deepfakes was
00:04:54
voornamelijk ethisch
00:04:56
of verband houden met desinformatie.
00:04:58
Echter
00:04:58
Aanvankelijk was er geen
00:05:01
Duidelijke regels om te bestraffen
00:05:03
of toezicht houden op de oprichting en ontwikkeling van
00:05:05
Verspreiding van kwaadaardige deepfakes.
00:05:07
Strenge regelgeving
00:05:09
innovatie in de weg kunnen staan.
00:05:11
Als er beperkingen worden opgelegd
00:05:12
inzake onderzoek en
00:05:14
generatieve AI-ontwikkeling,
00:05:15
Dit zou ontdekkingen kunnen voorkomen
00:05:18
potentieel gunstig voor de samenleving.
00:05:21
Bovendien
00:05:21
Te strenge regelgeving kan
00:05:24
Vernieuwers ertoe aanzetten om te verhuizen
00:05:26
onderzoek in landen waar
00:05:28
De wetgeving is soepeler.
00:05:30
Laten we aannemen dat de verordeningen
00:05:31
legt een goedkeuringsproces op
00:05:33
tijdrovend en kostbaar voor elke
00:05:35
nieuwe toepassing van AI
00:05:36
Geslachtelijk.
00:05:37
Dit zou startups kunnen ontmoedigen
00:05:39
en individuele innovators,
00:05:42
waardoor grote bedrijven worden bevoordeeld
00:05:44
met aanzienlijke middelen.
00:05:49
De ideale balans tussen innovatie
00:05:52
en regelgeving vereist een
00:05:54
nauwe samenwerking tussen de
00:05:56
beleidsmakers, onderzoekers,
00:05:58
het bedrijfsleven en het maatschappelijk middenveld.
00:06:01
Het is essentieel om discussies te voeren
00:06:04
Open en inclusief om te begrijpen
00:06:06
de implicaties van de technologie en
00:06:09
regels op te stellen die de
00:06:12
en tegelijkertijd innovatie te bevorderen.
00:06:14
Sommige landen zijn begonnen met het vestigen van
00:06:16
ethische commissies voor AI,
00:06:18
samengesteld uit experts uit verschillende vakgebieden
00:06:21
als leidraad voor de totstandkoming van wetgeving.
00:06:23
Deze commissies buigen zich over de implicaties van
00:06:26
Ethische, sociale en economische aspecten van AI
00:06:28
en overheden adviseren over
00:06:30
hoe de technologie in te kaderen.
00:06:32
Generatieve AI, ondanks deze gevaren,
00:06:35
biedt ongekende mogelijkheden.
00:06:38
Het kan levens verbeteren,
00:06:39
Creëer oplossingen en verrijk onze
00:06:42
cultuur. Gedreven door verantwoordelijkheid,
00:06:45
ethiek en samenwerking,
00:06:47
we kunnen de toekomst van AI vormgeven
00:06:49
generatief in het belang van iedereen.
00:06:51
In het licht van deze uitdagingen
00:06:54
Onderwijs staat voorop.
00:06:55
Solide training maakt het mogelijk
00:06:57
begrijpen wat er op het spel staat,
00:06:58
instrumenten aan te nemen en
00:07:00
Stel weloverwogen vragen.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:05
A IA generativa está no centro da
00:00:07
nova fronteira tecnológica,
00:00:08
transformar a forma como vemos e
00:00:11
criar. Arte visual alucinante de
00:00:13
Midjourney, o DeepDream do Google nos Estados Unidos
00:00:16
melodias sofisticadas do openAI MuseNet,
00:00:18
As fronteiras criativas parecem estar a esbater-se.
00:00:21
No entanto, com a magia vem a malícia.
00:00:25
As deepfakes desfocam o
00:00:27
fronteiras entre o real e o falso,
00:00:29
colocando enormes problemas éticos.
00:00:31
Deepfakes podem ser usados
00:00:33
para criar vídeos ou áudios falsos que
00:00:36
Figuras públicas em destaque
00:00:37
ou políticos dizendo ou fazendo
00:00:40
coisas que nunca disseram ou fizeram.
00:00:43
Isso pode ser usado para transmitir
00:00:45
informações falsas ou
00:00:48
propaganda manipulando a opinião pública.
00:00:50
Deepfakes podem ser usados
00:00:52
para imitar os líderes nacionais
00:00:54
ou oficiais militares,
00:00:55
criação de vídeos que poderiam
00:00:58
desencadeamento de crises diplomáticas,
00:00:59
ou mesmo conflitos.
00:01:02
À medida que as deepfakes se tornam mais prevalentes
00:01:04
cada vez mais convincente,
00:01:06
Torna-se difícil para o público
00:01:08
discernir a verdade da falsidade.
00:01:10
Isto pode levar a uma
00:01:11
Erosão geral da confiança
00:01:13
em suportes vídeo e áudio,
00:01:15
onde tudo pode ser questionado.
00:01:19
Inteligência artificial,
00:01:19
incluindo tecnologias
00:01:21
generativas como deepfakes,
00:01:23
baseia-se em dados relativos a:
00:01:25
aprender e generalizar.
00:01:26
Estes dados vêm de todo o mundo
00:01:28
e tal como o nosso mundo
00:01:30
desigualdades e estereótipos,
00:01:33
Estas desigualdades podem refletir-se na
00:01:35
nos dados. Quando uma IA é
00:01:37
formação em dados tendenciosos,
00:01:39
pode integrar e perpetuar esses preconceitos.
00:01:42
Assim, se as deepfakes estão acostumadas a,
00:01:45
dizer
00:01:45
gerar amostras de voz, ou
00:01:47
rostos que não representam
00:01:49
diversidade equitativa no mundo real,
00:01:52
em seguida,
00:01:52
IA que aprende com estes
00:01:54
as próprias amostras serão tendenciosas
00:01:56
conduzindo a sistemas discriminatórios.
00:02:00
Um sistema de IA para reconhecimento
00:02:02
que seriam formados principalmente
00:02:04
nas vozes masculinas,
00:02:05
pode ter dificuldade em reconhecer
00:02:07
e compreender corretamente
00:02:09
vozes femininas ou outras
00:02:11
vozes que não correspondem ao
00:02:13
modelo no qual foi treinado.
00:02:15
Com a disseminação de deepfakes,
00:02:17
A realidade objetiva poderia ser
00:02:19
prejudicado. Se tudo puder ser falsificado,
00:02:22
O próprio conceito de verdade poderia
00:02:24
ser corroído, com consequências
00:02:26
para a sociedade.
00:02:28
À medida que as deepfakes se tornam mais prevalentes
00:02:30
cada vez mais sofisticado e
00:02:32
indistinguível da realidade,
00:02:34
O público pode começar a duvidar
00:02:36
Veracidade consistente
00:02:38
qualquer conteúdo vídeo ou áudio,
00:02:40
se é notícia,
00:02:42
documentários ou entrevistas.
00:02:44
Isto poderia resultar numa sociedade em que
00:02:45
As pessoas já não acreditam no que vêem
00:02:48
ou ouvir,
00:02:49
fazer a divulgação da informação
00:02:51
fiabilidade extremamente difícil.
00:02:53
Organizações de Mídia
00:02:54
pode ser necessário adotar
00:02:56
Novos métodos de validação
00:02:58
e certificação para comprovar
00:03:00
a autenticidade do seu conteúdo. Em
00:03:01
Um mundo onde a verdade objetiva
00:03:03
está em dúvida,
00:03:04
Os indivíduos poderiam
00:03:06
Recorrer mais às fontes
00:03:08
informações que confirmem a sua
00:03:10
crenças pré-existentes,
00:03:11
Reforço das câmaras de eco
00:03:13
e polarização.
00:03:14
Deepfakes podem ser
00:03:16
usado para apoiar teorias
00:03:18
conspiração, e dado que estes
00:03:21
os vídeos seriam difíceis de refutar,
00:03:23
Estas teorias poderiam ganhar em
00:03:25
popularidade e influência.
00:03:27
Esta situação poderia conduzir à fragmentação
00:03:28
aumento da sociedade com
00:03:31
grupos cada vez mais isolados e
00:03:33
desacordo sobre os factos básicos.
00:03:37
As democracias baseiam-se numa
00:03:39
Eleitorado informado para funcionar
00:03:41
efetivamente. Se os cidadãos não puderem
00:03:43
não discernir a verdade da falsidade pela razão
00:03:45
a proliferação de deepfakes,
00:03:47
Esta situação poderia pôr em risco
00:03:49
o processo democrático.
00:03:51
Campanhas eleitorais podem
00:03:52
ser marcado com vídeos manipulados
00:03:55
destinado a desacreditar os opositores.
00:03:57
E as eleições podem ser influenciadas
00:04:00
por informações enganosas.
00:04:02
Confiança nas instituições
00:04:05
podem diminuir,
00:04:06
conduzindo à instabilidade política e
00:04:09
enfraquecimento dos valores democráticos.
00:04:11
Como legislar sobre esta matéria
00:04:13
Tecnologia em rápida evolução?
00:04:17
O debate entre inovação e inovação
00:04:19
A regulação está mais intensa do que nunca.
00:04:21
Historicamente, a tecnologia tem
00:04:23
muitas vezes evoluíram mais rápido do que o
00:04:26
a capacidade da empresa para o supervisionar.
00:04:28
Quando a Internet começou
00:04:29
para se tornar popular, por exemplo,
00:04:31
Demorou anos até
00:04:33
leis de privacidade,
00:04:35
direitos de autor ou direitos de autor
00:04:37
a cibersegurança está estabelecida. Com IA
00:04:39
Generativo
00:04:39
O desafio é ainda maior porque
00:04:42
A tecnologia tem o potencial de
00:04:44
transformar muitos aspetos das nossas vidas,
00:04:46
dos meios de comunicação social à política,
00:04:49
através da economia.
00:04:50
Os primeiros problemas colocados pela
00:04:52
O aparecimento de deepfakes foi
00:04:54
principalmente ética
00:04:56
ou relacionados com a desinformação.
00:04:58
No entanto
00:04:58
Inicialmente, não havia
00:05:01
Regulamentos claros para penalizar
00:05:03
ou supervisionar a criação e o desenvolvimento de
00:05:05
Disseminação de deepfakes maliciosos.
00:05:07
Regulamentos rigorosos
00:05:09
pode entravar a inovação.
00:05:11
Se forem impostas restrições
00:05:12
sobre a investigação e
00:05:14
desenvolvimento generativo de IA,
00:05:15
Isso poderia evitar descobertas
00:05:18
potencialmente benéfico para a sociedade.
00:05:21
Além disso
00:05:21
Uma regulamentação demasiado rigorosa pode
00:05:24
Incentivar os inovadores a deslocalizarem-se
00:05:26
a sua investigação em países onde
00:05:28
A legislação é mais branda.
00:05:30
Suponhamos que os regulamentos
00:05:31
impõe um processo de aprovação
00:05:33
demorado e dispendioso para qualquer
00:05:35
nova aplicação da IA
00:05:36
Generativo.
00:05:37
Isso poderia desencorajar as startups
00:05:39
e inovadores individuais,
00:05:42
favorecendo assim as grandes empresas
00:05:44
com recursos significativos.
00:05:49
O equilíbrio ideal entre inovação
00:05:52
e a regulamentação exige uma
00:05:54
estreita colaboração entre os
00:05:56
decisores políticos, investigadores,
00:05:58
empresas e sociedade civil.
00:06:01
É essencial ter discussões
00:06:04
aberto e inclusivo para entender
00:06:06
as implicações da tecnologia e
00:06:09
criar regulamentos que protejam o
00:06:12
ao mesmo tempo que fomenta a inovação.
00:06:14
Alguns países começaram a estabelecer
00:06:16
Comitês de ética em IA,
00:06:18
composto por especialistas de várias áreas
00:06:21
orientar a criação de legislação.
00:06:23
Estas comissões estão a analisar as implicações da
00:06:26
Aspetos éticos, sociais e económicos da IA
00:06:28
e aconselhar os governos sobre
00:06:30
como enquadrar a tecnologia.
00:06:32
IA generativa, apesar destes perigos,
00:06:35
oferece oportunidades sem precedentes.
00:06:38
Pode melhorar vidas,
00:06:39
Crie soluções e enriqueça a nossa
00:06:42
cultura. Movidos pela responsabilidade,
00:06:45
ética e colaboração,
00:06:47
podemos moldar o futuro da IA
00:06:49
generativa para o benefício de todos.
00:06:51
Face a estes desafios,
00:06:54
A educação é fundamental.
00:06:55
Uma formação sólida permite
00:06:57
compreender o que está em jogo,
00:06:58
adotar ferramentas e
00:07:00
Faça perguntas informadas.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:05
Generative AI là trung tâm của
00:00:07
biên giới công nghệ mới,
00:00:08
thay đổi cách chúng ta nhìn và
00:00:11
tạo. Nghệ thuật thị giác tuyệt vời từ
00:00:13
Midjourney, DeepDream của Google tại Hoa Kỳ
00:00:16
giai điệu tinh xảo từ openAI MuseNet,
00:00:18
Ranh giới sáng tạo dường như đang mờ đi.
00:00:21
Tuy nhiên, với phép thuật đi kèm với ác ý.
00:00:25
Deepfake làm mờ
00:00:27
ranh giới giữa thực và sai,
00:00:29
đặt ra những vấn đề đạo đức rất lớn.
00:00:31
Deepfake có thể được sử dụng
00:00:33
để tạo video hoặc âm thanh giả mạo
00:00:36
Nhân vật nổi bật của công chúng
00:00:37
hoặc các chính trị gia nói hoặc đưa ra
00:00:40
những điều họ không bao giờ nói hoặc làm.
00:00:43
Điều này có thể được sử dụng để phát sóng
00:00:45
thông tin sai lệch hoặc
00:00:48
tuyên truyền thao túng dư luận.
00:00:50
Deepfake có thể được sử dụng
00:00:52
để thi đua với các nhà lãnh đạo quốc gia
00:00:54
hoặc sĩ quan quân đội,
00:00:55
Tạo video có thể
00:00:58
gây ra khủng hoảng ngoại giao,
00:00:59
hay thậm chí là mâu thuẫn.
00:01:02
Khi deepfake trở nên phổ biến hơn
00:01:04
ngày càng thuyết phục,
00:01:06
Nó trở nên khó khăn cho khán giả
00:01:08
để phân biệt sự thật với sự giả dối.
00:01:10
Điều này có thể dẫn đến một
00:01:11
Xói mòn niềm tin chung
00:01:13
trong phương tiện video và âm thanh,
00:01:15
nơi mọi thứ có thể được đặt câu hỏi.
00:01:19
Trí tuệ nhân tạo,
00:01:19
bao gồm cả công nghệ
00:01:21
những thứ như deepfake,
00:01:23
dựa trên dữ liệu cho
00:01:25
Tìm hiểu và khái quát hóa.
00:01:26
Dữ liệu này đến từ khắp nơi trên thế giới
00:01:28
và giống như thế giới của chúng ta
00:01:30
bất bình đẳng và khuôn mẫu,
00:01:33
Những bất bình đẳng này có thể được phản ánh trong
00:01:35
trong dữ liệu. Khi AI là
00:01:37
được đào tạo về dữ liệu thiên vị,
00:01:39
Nó có thể tích hợp và duy trì những thành kiến này.
00:01:42
Vì vậy, nếu deepfake được sử dụng để,
00:01:45
nói
00:01:45
tạo mẫu giọng nói hoặc
00:01:47
khuôn mặt không đại diện
00:01:49
sự đa dạng trong thế giới thực công bằng,
00:01:52
sau đó
00:01:52
AI học hỏi từ những điều này
00:01:54
Bản thân các mẫu sẽ bị sai lệch
00:01:56
dẫn đến hệ thống phân biệt đối xử.
00:02:00
Một hệ thống AI để nhận dạng
00:02:02
sẽ được hình thành chủ yếu
00:02:04
về giọng nam,
00:02:05
Có thể gặp sự cố khi nhận dạng
00:02:07
và để hiểu chính xác
00:02:09
giọng nữ hoặc những người khác
00:02:11
giọng nói không khớp với
00:02:13
mô hình mà anh ta được đào tạo.
00:02:15
Với sự lan rộng của deepfake,
00:02:17
Thực tế khách quan có thể là
00:02:19
bị phá hoại. Nếu mọi thứ có thể bị làm sai lệch,
00:02:22
Chính khái niệm về sự thật có thể
00:02:24
bị xói mòn, với hậu quả
00:02:26
cho xã hội.
00:02:28
Khi deepfake trở nên phổ biến hơn
00:02:30
ngày càng tinh vi và
00:02:32
không thể phân biệt với thực tế,
00:02:34
Công chúng có thể bắt đầu nghi ngờ
00:02:36
Trung thực nhất quán
00:02:38
bất kỳ nội dung video hoặc âm thanh nào,
00:02:40
cho dù đó là tin tức,
00:02:42
phim tài liệu hoặc phỏng vấn.
00:02:44
Điều này có thể dẫn đến một xã hội mà
00:02:45
Mọi người không còn tin vào những gì họ nhìn thấy nữa
00:02:48
hoặc nghe,
00:02:49
thực hiện việc phổ biến thông tin
00:02:51
độ tin cậy cực kỳ khó khăn.
00:02:53
Tổ chức truyền thông
00:02:54
có thể cần phải áp dụng
00:02:56
Phương pháp xác thực mới
00:02:58
và chứng nhận để chứng minh
00:03:00
tính xác thực của nội dung của họ. Trong
00:03:01
Một thế giới nơi sự thật khách quan
00:03:03
là nghi ngờ,
00:03:04
Các cá nhân có thể
00:03:06
Chuyển nhiều hơn sang các nguồn
00:03:08
thông tin xác nhận
00:03:10
niềm tin có sẵn,
00:03:11
Gia cố buồng dội âm
00:03:13
và phân cực.
00:03:14
Deepfake có thể là
00:03:16
được sử dụng để hỗ trợ lý thuyết
00:03:18
âm mưu, và cho rằng những
00:03:21
video sẽ rất khó để bác bỏ,
00:03:23
Những lý thuyết này có thể đạt được trong
00:03:25
phổ biến và ảnh hưởng.
00:03:27
Điều này có thể dẫn đến sự phân mảnh
00:03:28
sự gia tăng của xã hội với
00:03:31
các nhóm ngày càng bị cô lập và
00:03:33
bất đồng về các sự kiện cơ bản.
00:03:37
Các nền dân chủ dựa trên một
00:03:39
Thông báo cử tri để hoạt động
00:03:41
Hiệu quả. Nếu công dân không thể
00:03:43
Không phân biệt sự thật với sự giả dối bằng lý trí
00:03:45
sự gia tăng của deepfake,
00:03:47
Điều này có thể gây nguy hiểm
00:03:49
quá trình dân chủ.
00:03:51
Các chiến dịch bầu cử có thể
00:03:52
được gắn thẻ với các video được chỉnh sửa
00:03:55
được thiết kế để làm mất uy tín của đối thủ.
00:03:57
Và các cuộc bầu cử có thể bị ảnh hưởng
00:04:00
bằng thông tin sai lệch.
00:04:02
Niềm tin vào các tổ chức
00:04:05
có thể giảm,
00:04:06
dẫn đến bất ổn chính trị và
00:04:09
làm suy yếu các giá trị dân chủ.
00:04:11
Làm thế nào để lập pháp về điều này
00:04:13
Công nghệ phát triển nhanh chóng?
00:04:17
Cuộc tranh luận giữa đổi mới và đổi mới
00:04:19
Quy định đang trở nên căng thẳng hơn bao giờ hết.
00:04:21
Trong lịch sử, công nghệ có
00:04:23
thường tiến hóa nhanh hơn
00:04:26
khả năng giám sát của công ty.
00:04:28
Khi internet lần đầu tiên bắt đầu
00:04:29
để trở nên phổ biến, ví dụ,
00:04:31
Phải mất nhiều năm trước
00:04:33
luật riêng tư,
00:04:35
Bản quyền hoặc bản quyền
00:04:37
An ninh mạng được thiết lập. Với AI
00:04:39
Thế hệ
00:04:39
Thách thức thậm chí còn lớn hơn bởi vì
00:04:42
Công nghệ này có tiềm năng
00:04:44
biến đổi nhiều khía cạnh của cuộc sống của chúng ta,
00:04:46
từ truyền thông đến chính trị,
00:04:49
thông qua nền kinh tế.
00:04:50
Những vấn đề đầu tiên đặt ra bởi
00:04:52
Sự xuất hiện của deepfake là
00:04:54
chủ yếu là đạo đức
00:04:56
hoặc liên quan đến thông tin sai lệch.
00:04:58
Tuy nhiên
00:04:58
Ban đầu, không có
00:05:01
Quy định rõ ràng để xử phạt
00:05:03
hoặc giám sát việc tạo ra và phát triển
00:05:05
Phát tán deepfake độc hại.
00:05:07
Quy định nghiêm ngặt
00:05:09
có thể cản trở sự đổi mới.
00:05:11
Nếu các hạn chế được áp dụng
00:05:12
về nghiên cứu và
00:05:14
phát triển AI tạo ra,
00:05:15
Điều này có thể ngăn chặn những khám phá
00:05:18
có khả năng mang lại lợi ích cho xã hội.
00:05:21
Hơn nữa
00:05:21
Quy định quá nghiêm ngặt có thể
00:05:24
Thúc đẩy các nhà đổi mới di dời
00:05:26
nghiên cứu của họ ở các quốc gia nơi
00:05:28
Pháp luật khoan dung hơn.
00:05:30
Hãy giả sử rằng các quy định
00:05:31
áp đặt quy trình phê duyệt
00:05:33
Tốn thời gian và chi phí cho bất kỳ
00:05:35
ứng dụng mới của AI
00:05:36
Phát sinh.
00:05:37
Điều này có thể làm nản lòng các công ty khởi nghiệp
00:05:39
và các nhà đổi mới cá nhân,
00:05:42
do đó ưu tiên các công ty lớn
00:05:44
với nguồn lực đáng kể.
00:05:49
Sự cân bằng lý tưởng của sự đổi mới
00:05:52
và quy định yêu cầu một
00:05:54
Hợp tác chặt chẽ giữa
00:05:56
các nhà hoạch định chính sách, nhà nghiên cứu,
00:05:58
kinh doanh và xã hội dân sự.
00:06:01
Điều cần thiết là phải có các cuộc thảo luận
00:06:04
cởi mở và toàn diện để hiểu
00:06:06
ý nghĩa của công nghệ và
00:06:09
Tạo ra các quy định bảo vệ
00:06:12
xã hội đồng thời thúc đẩy đổi mới sáng tạo.
00:06:14
Một số quốc gia đã bắt đầu thành lập
00:06:16
Ủy ban đạo đức AI,
00:06:18
bao gồm các chuyên gia từ nhiều lĩnh vực khác nhau
00:06:21
để hướng dẫn xây dựng pháp luật.
00:06:23
Các ủy ban này đang xem xét ý nghĩa của
00:06:26
Các khía cạnh đạo đức, xã hội và kinh tế của AI
00:06:28
và tư vấn cho các chính phủ về
00:06:30
Làm thế nào để đóng khung công nghệ.
00:06:32
AI tạo ra, bất chấp những nguy hiểm này,
00:06:35
mang đến những cơ hội chưa từng có.
00:06:38
Nó có thể cải thiện cuộc sống,
00:06:39
Tạo ra các giải pháp và làm phong phú thêm
00:06:42
văn hoá. Được thúc đẩy bởi trách nhiệm,
00:06:45
đạo đức và hợp tác,
00:06:47
chúng ta có thể định hình tương lai của AI
00:06:49
phát sinh vì lợi ích của tất cả mọi người.
00:06:51
Trước những thách thức này,
00:06:54
Giáo dục là tối quan trọng.
00:06:55
Đào tạo vững chắc cho phép
00:06:57
hiểu những gì đang bị đe dọa,
00:06:58
áp dụng các công cụ và
00:07:00
Đặt câu hỏi đầy đủ thông tin.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:05
生成式 AI 是
00:00:07
新技術前沿,
00:00:08
改變我們看待和
00:00:11
創造。令人振奮的視覺藝術來自
00:00:13
Midjourney,谷歌在美國的DeepDream
00:00:16
來自 openAI MuseNet 的精緻旋律,
00:00:18
創意的界限似乎正在模糊。
00:00:21
然而,隨著魔法而來的是惡意。
00:00:25
Deepfakes 模糊了
00:00:27
真與假的界限,
00:00:29
造成巨大的道德問題。
00:00:31
可以使用Deepfakes
00:00:33
要創建虛假的視頻或音訊
00:00:36
特色公眾人物
00:00:37
或政客說或做
00:00:40
他們從未說過或做過的事情。
00:00:43
這可用於廣播
00:00:45
虛假資訊或
00:00:48
宣傳操縱輿論。
00:00:50
可以使用Deepfakes
00:00:52
效仿國家領導人
00:00:54
或軍官,
00:00:55
創建可以
00:00:58
引發外交危機,
00:00:59
甚至衝突。
00:01:02
隨著深度偽造變得越來越普遍
00:01:04
越來越有說服力,
00:01:06
這對觀眾來說變得很困難
00:01:08
辨別真假。
00:01:10
這可能會導致
00:01:11
信任的普遍侵蝕
00:01:13
在視頻和音訊媒體中,
00:01:15
一切都可以被質疑。
00:01:19
人工智慧
00:01:19
包括技術
00:01:21
生成式的,如深度偽造,
00:01:23
基於以下數據
00:01:25
學習和概括。
00:01:26
這些數據來自世界各地
00:01:28
就像我們的世界一樣
00:01:30
不平等和刻板印象,
00:01:33
這些不平等可以反映在
00:01:35
在數據中。當 AI 是
00:01:37
在有偏見的數據上訓練,
00:01:39
它可以整合和延續這些偏見。
00:01:42
因此,如果習慣了深度偽造,
00:01:45
00:01:45
生成語音樣本,或者
00:01:47
不代表的面孔
00:01:49
公平的現實世界多樣性,
00:01:52
然後
00:01:52
從中學習的人工智慧
00:01:54
樣本本身會有偏差
00:01:56
導致歧視性制度。
00:02:00
用於識別的人工智慧系統
00:02:02
這將主要形成
00:02:04
在男聲上,
00:02:05
可能無法識別
00:02:07
並正確理解
00:02:09
女性聲音或其他聲音
00:02:11
00:02:13
他接受訓練的模型。
00:02:15
隨著深度偽造的傳播,
00:02:17
客觀現實可能是
00:02:19
破壞。如果一切都可以證偽,
00:02:22
真理的概念本身可以
00:02:24
被侵蝕,後果
00:02:26
為社會服務。
00:02:28
隨著深度偽造變得越來越普遍
00:02:30
越來越複雜和
00:02:32
與現實無法區分,
00:02:34
公眾可能會開始懷疑
00:02:36
始終如一的真實性
00:02:38
任何視頻或音訊內容,
00:02:40
無論是新聞,
00:02:42
紀錄片或採訪。
00:02:44
這可能導致一個社會
00:02:45
人們不再相信他們所看到的
00:02:48
或聽到,
00:02:49
進行信息傳播
00:02:51
極其困難的可靠性。
00:02:53
媒體機構
00:02:54
可能需要採用
00:02:56
新的驗證方法
00:02:58
和認證證明
00:03:00
其內容的真實性。在
00:03:01
一個客觀真理的世界
00:03:03
有疑問,
00:03:04
個人可以
00:03:06
更多地轉向資源
00:03:08
確認其
00:03:10
預先存在的信念,
00:03:11
加固回音室
00:03:13
和兩極分化。
00:03:14
Deepfakes 可能是
00:03:16
用於支持理論
00:03:18
陰謀,鑒於這些
00:03:21
視頻很難反駁,
00:03:23
這些理論可能會在
00:03:25
知名度和影響力。
00:03:27
這可能會導致碎片化
00:03:28
隨著社會的增加
00:03:31
日益孤立的群體和
00:03:33
對基本事實存在分歧。
00:03:37
民主國家的基礎是
00:03:39
知情的選民發揮作用
00:03:41
有效。如果公民無法
00:03:43
不憑理性辨別真假
00:03:45
深度偽造的泛濫,
00:03:47
這可能會危及
00:03:49
民主進程。
00:03:51
競選活動可以
00:03:52
被標記為篡改的視頻
00:03:55
旨在詆毀對手。
00:03:57
選舉可能會受到影響
00:04:00
通過誤導性資訊。
00:04:02
對機構的信任
00:04:05
可能會減少,
00:04:06
導致政治不穩定和
00:04:09
民主價值觀的削弱。
00:04:11
如何對此進行立法
00:04:13
快速發展的技術?
00:04:17
創新與創新之爭
00:04:19
監管比以往任何時候都更加嚴格。
00:04:21
從歷史上看,技術已經
00:04:23
通常比
00:04:26
公司監督它的能力。
00:04:28
互聯網剛開始時
00:04:29
例如,為了流行,
00:04:31
花了好幾年的時間
00:04:33
隱私法,
00:04:35
版權或著作權
00:04:37
網路安全已經建立。借助 AI
00:04:39
生成
00:04:39
挑戰甚至更大,因為
00:04:42
該技術具有
00:04:44
改變我們生活的許多方面,
00:04:46
從媒體到政治,
00:04:49
通過經濟。
00:04:50
提出的第一個問題
00:04:52
深度偽造的出現是
00:04:54
主要是道德的
00:04:56
或與虛假信息有關。
00:04:58
然而
00:04:58
最初,沒有
00:05:01
明確的處罰規定
00:05:03
或監督
00:05:05
傳播惡意深度偽造。
00:05:07
嚴格規定
00:05:09
會阻礙創新。
00:05:11
如果施加限制
00:05:12
關於研究和
00:05:14
生成式人工智慧開發,
00:05:15
這可能會阻止發現
00:05:18
對社會有潛在益處。
00:05:21
此外
00:05:21
過於嚴格的監管可以
00:05:24
推動創新者搬遷
00:05:26
他們在以下國家/地區的研究
00:05:28
立法更為寬鬆。
00:05:30
讓我們假設法規
00:05:31
實施審批流程
00:05:33
對於任何人來說,既費時又昂貴
00:05:35
人工智慧的新應用
00:05:36
生成。
00:05:37
這可能會讓初創公司望而卻步
00:05:39
以及個人創新者,
00:05:42
從而有利於大公司
00:05:44
擁有大量資源。
00:05:49
創新的理想平衡
00:05:52
監管要求
00:05:54
密切合作
00:05:56
政策制定者、研究人員、
00:05:58
企業和民間社會。
00:06:01
進行討論是必不可少的
00:06:04
開放包容的理解
00:06:06
該技術的影響和
00:06:09
制定法規來保護
00:06:12
促進社會創新。
00:06:14
一些國家已經開始建立
00:06:16
人工智慧倫理委員會,
00:06:18
由各領域的專家組成
00:06:21
指導立法的制定。
00:06:23
這些委員會正在研究
00:06:26
人工智慧的倫理、社會和經濟方面
00:06:28
並就以下方面向政府提供建議
00:06:30
如何構建技術。
00:06:32
生成式人工智慧,儘管存在這些危險,
00:06:35
提供前所未有的機會。
00:06:38
它可以改善生活,
00:06:39
創建解決方案並豐富我們的
00:06:42
文化。以責任為動力,
00:06:45
倫理與協作,
00:06:47
我們可以塑造人工智慧的未來
00:06:49
為了所有人的利益而生成。
00:06:51
面對這些挑戰,
00:06:54
教育是最重要的。
00:06:55
紮實的訓練允許
00:06:57
瞭解利害關係,
00:06:58
採用工具和
00:07:00
提出明智的問題。

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

Rappel

Afficher