L'impact des IA génératives sur la vérité et la confiance Tutoriels

L'intelligence artificielle, notamment les IA génératives, redéfinit notre perception de la réalité. Notre vidéo détaille la puissance des technologies comme DeepMind, GPT-4 et Midjourney, véritables acteurs de la transformation digitale, qui brouillent les frontières entre réalité et fiction, générant ainsi des deepfakes hautement sophistiqués. Ces contrefaçons numériques, presque parfaites, nous poussent à nous interroger : "Comment distinguer le vrai du faux ?".

L'incident Tesla en 2018 illustre le danger des informations trompeuses dans le monde digital. Dans l'ère du numérique, entreprises et marques peuvent voir leur réputation basculer à la suite d’une simple déclaration. Mais c'est aussi la démocratie et la cohésion sociale qui sont menacées par cette désinformation générée par IA.

Heureusement, la technologie offre aussi des solutions. Découvrez dans notre vidéo les initiatives innovantes pour combattre la désinformation. Dans cette jungle digitale, trouver la vérité nécessite plus que jamais discernement et vigilance.

  • 3:52
  • 2432 vues
Lecteur vidéo en cours de chargement.
Introduction
Temps actuel 0:00
Durée 0:00
Chargé: 0%
Type de flux EN DIRECT
Temps restant 0:00
1x
  • Chapitres
  • descriptions désactivées, sélectionné
  • Sous-titres désactivés, sélectionné

    Objectifs :

    Comprendre l'impact de l'intelligence artificielle sur notre société, en particulier à travers les technologies de deepfake et de désinformation, et explorer les mesures prises pour contrer ces défis.


    Chapitres :

    1. Introduction à l'intelligence artificielle
      L'intelligence artificielle (IA) façonne notre monde d'une manière que nous n'aurions jamais imaginée. Les IA génératives, en particulier, ont dépassé nos attentes en matière de créativité et de reproduction. Elles sont capables de composer des mélodies similaires à celles de grands musiciens, d'écrire des articles dans le style de journalistes renommés, de reproduire des voix d'acteurs et chanteurs favoris, et même de générer des visages et vidéos si réalistes qu'on pourrait les croire extraits d'un film hollywoodien.
    2. Les applications controversées de l'IA
      Parmi les applications les plus controversées de cette technologie, on trouve les deepfakes. Imaginez une vidéo d'une personnalité influente faisant une déclaration explosive, alors que cette déclaration n'a jamais été faite. Dans un monde où nous comptons sur ce que nous voyons et entendons, les implications peuvent être dévastatrices, en particulier pour les entreprises.
    3. Les risques pour les entreprises
      Les entreprises sont particulièrement vulnérables aux deepfakes. Une simple vidéo truquée peut déclencher une crise financière, ruiner des années de branding ou semer le chaos parmi les actionnaires et les clients. La perte de confiance, une fois survenue, est difficile à restaurer. Dans un monde corporatif interconnecté, la désinformation peut rapidement devenir virale, affectant non seulement une entreprise, mais une industrie entière.
    4. Exemple de désinformation : le cas de Tesla
      Un exemple marquant de la vulnérabilité des entreprises face à la désinformation est celui de Tesla en 2018. En août 2018, Elon Musk, le PDG de Tesla, a tweeté qu'il envisageait de retirer Tesla de la bourse et qu'il avait le financement assuré. Cette déclaration a entraîné une flambée du cours des actions de Tesla de plus de 10%. Cependant, il s'est avéré plus tard que Musk n'avait pas de plan concret ni de financement assuré pour une telle opération. La SEC (Securities and Exchange Commission) a alors poursuivi Musk pour avoir induit en erreur les investisseurs.
    5. Conséquences des deepfakes sur la société
      Les conséquences des deepfakes vont au-delà des entreprises. Au niveau sociétal, des élections peuvent être truquées, des tensions peuvent être exacerbées, et des familles peuvent être divisées par des vérités contradictoires. Lorsque les informations deviennent indiscernables de la désinformation, la structure même de notre démocratie est mise à l'épreuve.
    6. Mesures de lutte contre la désinformation
      Cependant, tout n'est pas sombre. Des journalistes, des chercheurs et des technologues travaillent sans relâche pour détecter et combattre ces contrefaçons. Ils développent des outils pour identifier les deepfakes, éduquent le public sur la manière de repérer les signes révélateurs et tentent de rétablir la confiance dans l'ère post-vérité.
    7. Conclusion : Vers un avenir informé
      Nous sommes à un carrefour. La technologie avance et nous devons avancer avec elle, en étant toujours informés, toujours vigilants et toujours prêts à discerner la vérité de la fiction. La vigilance collective est essentielle pour naviguer dans ce paysage complexe et en constante évolution.

    FAQ :

    Qu'est-ce que l'intelligence artificielle générative?

    L'intelligence artificielle générative est un type d'IA qui peut créer de nouveaux contenus, comme des textes, des images ou des musiques, en s'appuyant sur des modèles appris à partir de données existantes.

    Quels sont les risques associés aux deepfakes?

    Les deepfakes peuvent causer des dommages significatifs, notamment en diffusant de fausses informations qui peuvent nuire à la réputation d'individus ou d'entreprises, provoquer des crises financières, ou influencer des élections.

    Comment peut-on détecter un deepfake?

    Des chercheurs et des technologues développent des outils pour identifier les deepfakes, en recherchant des incohérences dans les vidéos ou en utilisant des algorithmes d'analyse d'image.

    Pourquoi la désinformation est-elle un problème dans le monde moderne?

    La désinformation peut rapidement se propager grâce aux réseaux sociaux, affectant la confiance du public, provoquant des tensions sociales et menaçant la démocratie en rendant difficile la distinction entre vérité et mensonge.

    Quelles mesures peuvent être prises pour lutter contre la désinformation?

    Il est essentiel d'éduquer le public sur la manière de repérer la désinformation, de développer des outils de détection et de promouvoir la transparence dans les médias.


    Quelques cas d'usages :

    Détection de deepfakes dans le journalisme

    Les journalistes peuvent utiliser des outils de détection de deepfakes pour vérifier l'authenticité des vidéos avant de les publier, afin de maintenir la crédibilité de leurs reportages.

    Protection des entreprises contre la désinformation

    Les entreprises peuvent mettre en place des protocoles de communication pour gérer les crises causées par des deepfakes, en formant leurs équipes à réagir rapidement et efficacement pour protéger leur réputation.

    Éducation du public sur la désinformation

    Les organisations peuvent organiser des ateliers et des campagnes de sensibilisation pour enseigner au public comment identifier la désinformation et les deepfakes, renforçant ainsi la résilience de la société face à ces menaces.

    Utilisation de l'IA pour la création de contenu

    Les musiciens et les artistes peuvent utiliser des IA génératives pour composer de nouvelles mélodies ou créer des œuvres d'art, augmentant ainsi leur créativité et leur productivité.

    Analyse des impacts des déclarations publiques

    Les analystes financiers peuvent étudier les effets des déclarations publiques, qu'elles soient vraies ou fausses, sur les marchés boursiers, afin de mieux comprendre les dynamiques du marché.


    Glossaire :

    Intelligence Artificielle (IA)

    Système informatique capable d'effectuer des tâches qui nécessitent normalement l'intelligence humaine, comme la reconnaissance vocale, la prise de décision et la création de contenu.

    IA générative

    Type d'intelligence artificielle qui peut créer de nouveaux contenus, tels que des textes, des images ou des musiques, en s'inspirant de données existantes.

    Deepfake

    Technique utilisant l'IA pour créer des vidéos ou des audios trompeurs en superposant des visages ou en imitant des voix, rendant difficile la distinction entre le vrai et le faux.

    Securities and Exchange Commission (SEC)

    Autorité de régulation des marchés financiers aux États-Unis, responsable de la protection des investisseurs et du maintien de l'intégrité des marchés.

    Désinformation

    Information fausse ou trompeuse diffusée intentionnellement pour induire en erreur.

    Vérité

    Conformité à la réalité ou à un fait, souvent mise à l'épreuve dans le contexte de la désinformation.

    00:00:04
    L'intelligence artificielle façonne
    00:00:06
    notre monde d'une manière que
    00:00:08
    nous n'aurions jamais imaginé.
    00:00:10
    Les IA génératives ont
    00:00:12
    transcendé nos attentes.
    00:00:14
    Elles peuvent aujourd'hui
    00:00:15
    composer des mélodies similaires
    00:00:16
    à celles de grands musiciens,
    00:00:18
    écrire des articles dans le
    00:00:20
    style de journalistes renommés,
    00:00:21
    reproduire des voix évoquant nos
    00:00:23
    acteurs et chanteurs favoris et
    00:00:25
    générer des visages et vidéos si
    00:00:27
    réalistes qu'on les croirait
    00:00:28
    extraits d'un film hollywoodien.
    00:00:32
    Ce qui était jadis relégué aux
    00:00:33
    pages des romans de science-fiction
    00:00:35
    prend désormais vie sous nos yeux
    00:00:37
    grâce à des applications comme DeepMind,
    00:00:40
    GPT-4 ou Midjourney...
    00:00:42
    Les deepfakes sont parmi les applications
    00:00:45
    les plus controversées de cette technologie.
    00:00:48
    Imaginez une vidéo d'une personnalité
    00:00:51
    influente faisant une déclaration explosive.
    00:00:54
    Sauf que cette déclaration n'a jamais
    00:00:56
    été faite. Dans un monde où nous
    00:00:58
    comptons sur ce que nous voyons et entendons,
    00:01:01
    les implications peuvent être dévastatrices.
    00:01:04
    Les entreprises sont
    00:01:06
    particulièrement vulnérables.
    00:01:07
    Une simple vidéo truquée peut déclencher
    00:01:10
    une crise financière, ruiner des années
    00:01:13
    de branding ou semer le chaos parmi
    00:01:15
    les actionnaires et les clients.
    00:01:17
    Mais ce n'est pas seulement
    00:01:19
    une question d'argent.
    00:01:20
    La confiance,
    00:01:20
    une fois perdue,
    00:01:21
    est difficile à restaurer. Dans un
    00:01:25
    monde corporatif interconnecté,
    00:01:26
    la désinformation peut rapidement
    00:01:28
    devenir virale,
    00:01:29
    affectant non seulement une entreprise,
    00:01:31
    mais une industrie entière.
    00:01:33
    Un des exemples les plus marquants
    00:01:35
    qui peut illustrer la vulnérabilité
    00:01:37
    des entreprises face à la
    00:01:39
    désinformation est celui de Tesla
    00:01:42
    en 2018.
    00:01:43
    En août 2018, Elon Musk,
    00:01:46
    le PDG de Tesla,
    00:01:48
    a tweeté qu'il envisageait de
    00:01:50
    retirer Tesla de la bourse
    00:01:51
    et qu'il avait "le financement assuré".
    00:01:54
    Cette déclaration a entraîné une flambée du
    00:01:57
    cours des actions de Tesla de plus de 10%.
    00:01:59
    Cependant,
    00:02:00
    il s'est avéré plus tard que Musk
    00:02:02
    n'avait pas de plan concret ni de
    00:02:04
    financement assuré pour une telle opération.
    00:02:06
    La SEC (Securities and Exchange
    00:02:08
    Commission) a alors poursuivi Musk pour
    00:02:11
    avoir induit en erreur les investisseurs.
    00:02:14
    Bien que cela ne soit pas un
    00:02:16
    exemple direct de deepfake ou de
    00:02:18
    désinformation générée par IA,
    00:02:19
    cela montre à quel point une
    00:02:22
    simple déclaration,
    00:02:23
    qu'elle soit vraie ou fausse,
    00:02:24
    peut avoir des répercussions
    00:02:25
    majeures sur le cours des actions,
    00:02:27
    la réputation d'une entreprise et
    00:02:30
    la confiance des investisseurs.
    00:02:32
    En transposant cela à la capacité de l'IA
    00:02:35
    de créer de faux contenus,
    00:02:35
    on peut imaginer les conséquences
    00:02:37
    potentielles si, par exemple, une
    00:02:39
    vidéo truquée d'un PDG d'une
    00:02:41
    grande entreprise était diffusée
    00:02:43
    où il annoncerait faussement
    00:02:45
    des nouvelles perturbatrices.
    00:02:47
    Les marchés financiers pourraient
    00:02:49
    réagir avant même de vérifier
    00:02:51
    l'authenticité de la déclaration.
    00:02:52
    Au niveau sociétal,
    00:02:54
    les conséquences sont encore plus grandes.
    00:02:57
    Des élections peuvent être truquées,
    00:02:59
    des tensions peuvent être exacerbées,
    00:03:02
    les familles peuvent être divisées
    00:03:04
    par des vérités contradictoires.
    00:03:06
    Quand les informations deviennent
    00:03:08
    indiscernables de la désinformation,
    00:03:09
    la structure même de notre
    00:03:11
    démocratie est mise à l'épreuve.
    00:03:13
    Mais tout n'est pas sombre.
    00:03:15
    Il existe des contre-mesures.
    00:03:17
    Des journalistes,
    00:03:18
    des chercheurs et des technologues
    00:03:20
    travaillent sans relâche pour détecter
    00:03:23
    et combattre ces contrefaçons.
    00:03:24
    Ils développent des outils
    00:03:26
    pour identifier les deepfakes,
    00:03:28
    éduquent le public sur la
    00:03:29
    manière de repérer les signes
    00:03:31
    révélateurs et tentent de rétablir la
    00:03:33
    confiance dans l'ère post-vérité.
    00:03:36
    Nous sommes à un carrefour.
    00:03:38
    La technologie avance et nous
    00:03:40
    devons avancer avec elle en
    00:03:42
    étant toujours informés,
    00:03:43
    toujours vigilants et toujours prêts
    00:03:45
    à discerner la vérité de la fiction.

    Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
    Effectuez une autre recherche ou retournez au contenu !

     

    00:00:04
    Künstliche Intelligenz prägt
    00:00:06
    unsere Welt so zu gestalten, dass
    00:00:08
    Das hätten wir uns nie vorstellen können.
    00:00:10
    Generative KIs haben
    00:00:12
    übertraf unsere Erwartungen.
    00:00:14
    Heute können sie
    00:00:15
    Komponieren Sie ähnliche Melodien
    00:00:16
    bis hin zu denen großer Musiker,
    00:00:18
    Schreiben Sie Artikel in der
    00:00:20
    Stil renommierter Journalisten,
    00:00:21
    Reproduzieren Sie Stimmen, die unsere
    00:00:23
    Lieblingsschauspieler und -sänger und
    00:00:25
    Generieren Sie Gesichter und Videos, wenn
    00:00:27
    so realistisch, wie man denken würde, dass sie
    00:00:28
    Ausschnitte aus einem Hollywood-Film.
    00:00:32
    Was einst in die
    00:00:33
    Seiten mit Science-Fiction-Romanen
    00:00:35
    erwacht nun vor unseren Augen zum Leben
    00:00:37
    dank Anwendungen wie DeepMind,
    00:00:40
    GPT-4 oder Midjourney...
    00:00:42
    Deepfakes gehören zu den Apps
    00:00:45
    die umstrittensten Aspekte dieser Technologie.
    00:00:48
    Stellen Sie sich ein Video von einem Prominenten vor
    00:00:51
    ein explosives Statement.
    00:00:54
    Abgesehen davon, dass diese Aussage nie
    00:00:56
    gemacht wurde. In einer Welt, in der wir
    00:00:58
    verlassen uns auf das, was wir sehen und hören,
    00:01:01
    Die Auswirkungen können verheerend sein.
    00:01:04
    Unternehmen sind
    00:01:06
    besonders gefährdet sind.
    00:01:07
    Ein einfaches gefälschtes Video kann
    00:01:10
    Eine Finanzkrise, die Jahre ruiniert
    00:01:13
    Branding oder Verwüstung unter den
    00:01:15
    Aktionäre und Kunden.
    00:01:17
    Aber es ist nicht nur
    00:01:19
    Es geht nur ums Geld.
    00:01:20
    Vertrauen
    00:01:20
    einmal verloren,
    00:01:21
    ist schwer wiederherzustellen. In einem
    00:01:25
    vernetzte Unternehmenswelt,
    00:01:26
    Fehlinformationen können schnell
    00:01:28
    viral gehen,
    00:01:29
    nicht nur ein Unternehmen betreffen,
    00:01:31
    sondern eine ganze Branche.
    00:01:33
    Eines der markantesten Beispiele
    00:01:35
    die Verwundbarkeit veranschaulichen können
    00:01:37
    Unternehmen angesichts der
    00:01:39
    Desinformation ist Teslas
    00:01:42
    im Jahr 2018.
    00:01:43
    Im August 2018 hat Elon Musk,
    00:01:46
    Der CEO von Tesla,
    00:01:48
    twitterte, dass er darüber nachdenke,
    00:01:50
    Tesla von der Börse nehmen
    00:01:51
    und dass er "die Finanzierung gesichert" habe.
    00:01:54
    Dies führte zu einem sprunghaften Anstieg der
    00:01:57
    Der Aktienkurs von Tesla ist um mehr als 10 % gestiegen.
    00:01:59
    Aber
    00:02:00
    Später stellte sich heraus, dass Musk
    00:02:02
    keinen konkreten Plan hatten oder
    00:02:04
    Die Finanzierung einer solchen Operation ist gesichert.
    00:02:06
    Die SEC (Securities and Exchange
    00:02:08
    Kommission) verklagte Musk daraufhin wegen
    00:02:11
    Irreführung von Anlegern.
    00:02:14
    Obwohl es sich hierbei nicht um eine
    00:02:16
    Direktes Beispiel für ein Deepfake oder
    00:02:18
    KI-generierte Fehlinformationen,
    00:02:19
    Dies zeigt, wie ein
    00:02:22
    einfache Deklaration,
    00:02:23
    ob wahr oder falsch,
    00:02:24
    kann Auswirkungen haben
    00:02:25
    Aktienkurse,
    00:02:27
    die Reputation eines Unternehmens und
    00:02:30
    Vertrauen der Anleger.
    00:02:32
    Umsetzung auf die Fähigkeiten der KI
    00:02:35
    falsche Inhalte erstellen,
    00:02:35
    Man kann sich die Folgen vorstellen
    00:02:37
    Potenzial, wenn z.B. ein
    00:02:39
    gefälschtes Video eines CEO eines
    00:02:41
    große Firma wurde ausgestrahlt
    00:02:43
    wo er fälschlicherweise verkünden würde,
    00:02:45
    disruptive Nachrichten.
    00:02:47
    Die Finanzmärkte könnten
    00:02:49
    Reagieren Sie, bevor Sie überhaupt prüfen
    00:02:51
    die Authentizität der Aussage.
    00:02:52
    Auf gesellschaftlicher Ebene
    00:02:54
    Die Folgen sind noch größer.
    00:02:57
    Wahlen können manipuliert werden,
    00:02:59
    Spannungen verschärfen können,
    00:03:02
    Familien können aufgeteilt werden
    00:03:04
    durch widersprüchliche Wahrheiten.
    00:03:06
    Wenn Informationen
    00:03:08
    nicht von Fehlinformationen zu unterscheiden,
    00:03:09
    die Struktur unserer
    00:03:11
    Die Demokratie steht auf dem Prüfstand.
    00:03:13
    Aber es ist nicht alles Untergangsstimmung.
    00:03:15
    Gegenmaßnahmen gibt es.
    00:03:17
    Journalisten
    00:03:18
    Forscher und Technologen
    00:03:20
    unermüdlich daran arbeiten,
    00:03:23
    und diese Fälschungen zu bekämpfen.
    00:03:24
    Sie entwickeln Werkzeuge
    00:03:26
    um Deepfakes zu erkennen,
    00:03:28
    Aufklärung der Öffentlichkeit über die
    00:03:29
    So erkennen Sie die Anzeichen
    00:03:31
    und versuchen, die
    00:03:33
    Zuversicht in der postfaktischen Ära.
    00:03:36
    Wir stehen an einem Scheideweg.
    00:03:38
    Die Technologie schreitet voran und wir sind
    00:03:40
    Wir müssen damit voranschreiten, indem wir
    00:03:42
    immer auf dem Laufenden zu sein,
    00:03:43
    Immer wachsam und immer bereit
    00:03:45
    Wahrheit von Fiktion zu unterscheiden.

    Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
    Effectuez une autre recherche ou retournez au contenu !

     

    00:00:04
    Formas de Inteligencia Artificial
    00:00:06
    nuestro mundo de una manera que
    00:00:08
    Nunca lo hubiéramos imaginado.
    00:00:10
    Las IA generativas tienen
    00:00:12
    trascendió nuestras expectativas.
    00:00:14
    Hoy en día, pueden
    00:00:15
    Componer melodías similares
    00:00:16
    a las de los grandes músicos,
    00:00:18
    Escribe artículos en el archivo
    00:00:20
    estilo de periodistas de renombre,
    00:00:21
    Reproducir voces que evoquen nuestra
    00:00:23
    actores y cantantes favoritos y
    00:00:25
    Generar caras y videos si
    00:00:27
    tan realistas como se podría pensar que eran
    00:00:28
    Extractos de una película de Hollywood.
    00:00:32
    Lo que una vez fue relegado a la
    00:00:33
    Páginas de novelas de ciencia ficción
    00:00:35
    ahora cobra vida ante nuestros ojos
    00:00:37
    gracias a aplicaciones como DeepMind,
    00:00:40
    GPT-4 o Midjourney...
    00:00:42
    Los deepfakes se encuentran entre las aplicaciones
    00:00:45
    los aspectos más controvertidos de esta tecnología.
    00:00:48
    Imagina un video de una celebridad
    00:00:51
    haciendo una declaración explosiva.
    00:00:54
    Excepto que esta afirmación nunca ha sido
    00:00:56
    se ha hecho. En un mundo en el que
    00:00:58
    confiar en lo que vemos y oímos,
    00:01:01
    Las implicaciones pueden ser devastadoras.
    00:01:04
    Las empresas son:
    00:01:06
    particularmente vulnerables.
    00:01:07
    Un simple video falso puede desencadenar
    00:01:10
    Una crisis financiera que arruina años
    00:01:13
    o causando estragos entre los
    00:01:15
    accionistas y clientes.
    00:01:17
    Pero no es solo
    00:01:19
    Todo es cuestión de dinero.
    00:01:20
    Confianza
    00:01:20
    una vez perdido,
    00:01:21
    es difícil de restaurar. En un
    00:01:25
    mundo corporativo interconectado,
    00:01:26
    La desinformación puede
    00:01:28
    se vuelven virales,
    00:01:29
    afectando no solo a una empresa,
    00:01:31
    sino toda una industria.
    00:01:33
    Uno de los ejemplos más llamativos
    00:01:35
    que puede ilustrar la vulnerabilidad
    00:01:37
    empresas frente a la
    00:01:39
    la desinformación es la de Tesla
    00:01:42
    en 2018.
    00:01:43
    En agosto de 2018, Elon Musk,
    00:01:46
    El CEO de Tesla,
    00:01:48
    tuiteó que estaba considerando
    00:01:50
    Eliminar a Tesla del mercado de valores
    00:01:51
    y que tenía "la financiación asegurada".
    00:01:54
    Esto llevó a un aumento en la
    00:01:57
    El precio de las acciones de Tesla en más de un 10%.
    00:01:59
    Sin embargo
    00:02:00
    más tarde resultó que Musk
    00:02:02
    no tenía un plan concreto o
    00:02:04
    Financiación asegurada para dicha operación.
    00:02:06
    La SEC (Bolsa y Valores de Estados Unidos)
    00:02:08
    Comisión) luego demandó a Musk por
    00:02:11
    inducir a error a los inversores.
    00:02:14
    Aunque no se trata de un
    00:02:16
    Ejemplo directo de un deepfake o
    00:02:18
    Desinformación generada por IA,
    00:02:19
    Esto muestra cómo un
    00:02:22
    declaración simple,
    00:02:23
    ya sea verdadero o falso,
    00:02:24
    puede tener repercusiones
    00:02:25
    precios de las acciones,
    00:02:27
    la reputación de una empresa y
    00:02:30
    confianza de los inversionistas.
    00:02:32
    Trasladando esto a la capacidad de la IA
    00:02:35
    crear contenido falso,
    00:02:35
    Uno puede imaginar las consecuencias
    00:02:37
    potencial si, por ejemplo, un
    00:02:39
    video falso de un CEO de una
    00:02:41
    Se transmitió una gran empresa
    00:02:43
    donde anunciaría falsamente
    00:02:45
    noticias disruptivas.
    00:02:47
    Los mercados financieros podrían
    00:02:49
    Reacciona incluso antes de comprobarlo
    00:02:51
    la autenticidad de la declaración.
    00:02:52
    A nivel social,
    00:02:54
    Las consecuencias son aún mayores.
    00:02:57
    Las elecciones pueden ser amañadas,
    00:02:59
    las tensiones pueden exacerbarse,
    00:03:02
    Las familias se pueden dividir
    00:03:04
    por verdades contradictorias.
    00:03:06
    Cuando la información se convierte en
    00:03:08
    indistinguible de la desinformación,
    00:03:09
    la estructura misma de nuestro
    00:03:11
    La democracia está siendo puesta a prueba.
    00:03:13
    Pero no todo es pesimismo.
    00:03:15
    Hay contramedidas.
    00:03:17
    Periodistas
    00:03:18
    Investigadores y tecnólogos
    00:03:20
    Trabaja incansablemente para detectar
    00:03:23
    y luchar contra estas falsificaciones.
    00:03:24
    Desarrollan herramientas
    00:03:26
    para identificar deepfakes,
    00:03:28
    educar al público sobre la
    00:03:29
    Cómo detectar las señales
    00:03:31
    e intentar restaurar el
    00:03:33
    Confianza en la era de la posverdad.
    00:03:36
    Estamos en una encrucijada.
    00:03:38
    La tecnología avanza y nosotros estamos
    00:03:40
    Tenemos que avanzar en ello
    00:03:42
    estar siempre informado,
    00:03:43
    Siempre vigilantes y siempre listos
    00:03:45
    discernir la verdad de la ficción.

    Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
    Effectuez une autre recherche ou retournez au contenu !

     

    00:00:04
    Bentuk Kecerdasan Buatan
    00:00:06
    dunia kita dengan cara yang
    00:00:08
    Kami tidak akan pernah membayangkan.
    00:00:10
    AI generatif memiliki
    00:00:12
    melampaui harapan kami.
    00:00:14
    Hari ini, mereka bisa
    00:00:15
    Buat melodi serupa
    00:00:16
    bagi para musisi hebat,
    00:00:18
    Menulis artikel di
    00:00:20
    gaya jurnalis terkenal,
    00:00:21
    Mereproduksi suara yang membangkitkan
    00:00:23
    aktor dan penyanyi favorit dan
    00:00:25
    Hasilkan wajah &; video jika
    00:00:27
    realistis seperti yang Anda kira
    00:00:28
    Kutipan dari film Hollywood.
    00:00:32
    Apa yang pernah diturunkan ke
    00:00:33
    Halaman Novel Fiksi Ilmiah
    00:00:35
    Sekarang menjadi hidup di depan mata kita
    00:00:37
    berkat aplikasi seperti DeepMind,
    00:00:40
    GPT-4 atau Midjourney...
    00:00:42
    Deepfake adalah salah satu aplikasi
    00:00:45
    Aspek paling kontroversial dari teknologi ini.
    00:00:48
    Bayangkan sebuah video seorang selebriti
    00:00:51
    membuat pernyataan eksplosif.
    00:00:54
    Kecuali bahwa pernyataan ini tidak pernah
    00:00:56
    telah dibuat. Di dunia di mana kita
    00:00:58
    mengandalkan apa yang kita lihat dan dengar,
    00:01:01
    Implikasinya bisa sangat menghancurkan.
    00:01:04
    Perusahaan adalah
    00:01:06
    sangat rentan.
    00:01:07
    Video palsu sederhana dapat memicu
    00:01:10
    Krisis keuangan, menghancurkan tahun-tahun
    00:01:13
    branding atau mendatangkan malapetaka di antara
    00:01:15
    pemegang saham dan pelanggan.
    00:01:17
    Tapi itu tidak hanya
    00:01:19
    Ini semua tentang uang.
    00:01:20
    Percaya
    00:01:20
    pernah hilang,
    00:01:21
    Sulit dipulihkan. Dalam sebuah
    00:01:25
    dunia usaha yang saling berhubungan,
    00:01:26
    Informasi yang salah dapat dengan cepat
    00:01:28
    menjadi viral,
    00:01:29
    mempengaruhi tidak hanya perusahaan,
    00:01:31
    tetapi seluruh industri.
    00:01:33
    Salah satu contoh paling mencolok
    00:01:35
    yang dapat menggambarkan kerentanan
    00:01:37
    perusahaan dalam menghadapi
    00:01:39
    disinformasi adalah milik Tesla
    00:01:42
    pada tahun 2018.
    00:01:43
    Pada Agustus 2018, Elon Musk,
    00:01:46
    CEO Tesla,
    00:01:48
    tweeted bahwa dia sedang mempertimbangkan
    00:01:50
    Hapus Tesla dari pasar saham
    00:01:51
    dan bahwa dia memiliki "pembiayaan yang dijamin".
    00:01:54
    Hal ini menyebabkan lonjakan
    00:01:57
    Harga saham Tesla lebih dari 10%.
    00:01:59
    Namun
    00:02:00
    kemudian ternyata Musk
    00:02:02
    tidak memiliki rencana konkret atau
    00:02:04
    Pendanaan dijamin untuk operasi semacam itu.
    00:02:06
    SEC (Sekuritas dan Bursa
    00:02:08
    Komisi) kemudian menggugat Musk untuk
    00:02:11
    investor yang menyesatkan.
    00:02:14
    Meskipun ini bukan
    00:02:16
    Contoh langsung deepfake atau
    00:02:18
    Misinformasi yang dihasilkan AI,
    00:02:19
    Ini menunjukkan bagaimana a
    00:02:22
    deklarasi sederhana,
    00:02:23
    apakah benar atau salah,
    00:02:24
    dapat berakibat
    00:02:25
    harga saham,
    00:02:27
    reputasi perusahaan dan
    00:02:30
    kepercayaan investor.
    00:02:32
    Transposisi ini ke kemampuan AI
    00:02:35
    buat konten palsu,
    00:02:35
    Bisa dibayangkan konsekuensinya
    00:02:37
    potensial jika, misalnya, a
    00:02:39
    video palsu dari seorang CEO
    00:02:41
    Perusahaan besar disiarkan
    00:02:43
    di mana dia akan mengumumkan secara salah
    00:02:45
    berita yang mengganggu.
    00:02:47
    Pasar keuangan bisa
    00:02:49
    Bereaksi bahkan sebelum Anda memeriksa
    00:02:51
    keaslian pernyataan.
    00:02:52
    Di tingkat masyarakat,
    00:02:54
    Konsekuensinya bahkan lebih besar.
    00:02:57
    Pemilu bisa dicurangi,
    00:02:59
    ketegangan dapat diperburuk,
    00:03:02
    Keluarga dapat dibagi
    00:03:04
    dengan kebenaran yang kontradiktif.
    00:03:06
    Ketika informasi menjadi
    00:03:08
    tidak dapat dibedakan dari informasi yang salah,
    00:03:09
    struktur kami
    00:03:11
    Demokrasi sedang diuji.
    00:03:13
    Tapi itu tidak semua malapetaka dan kesuraman.
    00:03:15
    Ada tindakan pencegahan.
    00:03:17
    Wartawan
    00:03:18
    Peneliti dan Teknolog
    00:03:20
    Bekerja tanpa lelah untuk mendeteksi
    00:03:23
    dan melawan pemalsuan ini.
    00:03:24
    Mereka mengembangkan alat
    00:03:26
    untuk mengidentifikasi deepfake,
    00:03:28
    mendidik masyarakat tentang
    00:03:29
    Cara mengenali tanda-tanda
    00:03:31
    dan upaya untuk memulihkan
    00:03:33
    Keyakinan di era pasca-kebenaran.
    00:03:36
    Kami berada di persimpangan jalan.
    00:03:38
    Teknologi semakin maju dan kami
    00:03:40
    Kita perlu bergerak maju dengan itu dengan
    00:03:42
    selalu diinformasikan,
    00:03:43
    Selalu waspada dan selalu siap
    00:03:45
    untuk membedakan kebenaran dari fiksi.

    Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
    Effectuez une autre recherche ou retournez au contenu !

     

    00:00:04
    Forme di intelligenza artificiale
    00:00:06
    il nostro mondo in un modo che
    00:00:08
    Non l'avremmo mai immaginato.
    00:00:10
    Le IA generative hanno
    00:00:12
    ha trasceso le nostre aspettative.
    00:00:14
    Oggi possono
    00:00:15
    Componi melodie simili
    00:00:16
    a quelle dei grandi musicisti,
    00:00:18
    Scrivi articoli nel file
    00:00:20
    stile di giornalisti rinomati,
    00:00:21
    Riprodurre voci che evocano il nostro
    00:00:23
    attori e cantanti preferiti e
    00:00:25
    Genera volti e video se
    00:00:27
    realistici come si potrebbe pensare che fossero
    00:00:28
    Estratti da un film di Hollywood.
    00:00:32
    Ciò che un tempo era relegato al
    00:00:33
    Pagine di romanzi di fantascienza
    00:00:35
    ora prende vita davanti ai nostri occhi
    00:00:37
    grazie ad applicazioni come DeepMind,
    00:00:40
    GPT-4 o Midjourney...
    00:00:42
    I deepfake sono tra le app
    00:00:45
    gli aspetti più controversi di questa tecnologia.
    00:00:48
    Immagina un video di una celebrità
    00:00:51
    facendo una dichiarazione esplosiva.
    00:00:54
    Solo che questa affermazione non è mai stata
    00:00:56
    è stato fatto. In un mondo in cui noi
    00:00:58
    ci affidiamo a ciò che vediamo e sentiamo,
    00:01:01
    Le implicazioni possono essere devastanti.
    00:01:04
    Le aziende sono
    00:01:06
    particolarmente vulnerabile.
    00:01:07
    Un semplice video falso può attivarsi
    00:01:10
    Una crisi finanziaria che rovina anni
    00:01:13
    branding o scatenare il caos tra
    00:01:15
    azionisti e clienti.
    00:01:17
    Ma non è solo
    00:01:19
    È tutta una questione di soldi.
    00:01:20
    Fiducia
    00:01:20
    una volta perso,
    00:01:21
    è difficile da ripristinare. In un
    00:01:25
    mondo aziendale interconnesso,
    00:01:26
    La disinformazione può essere rapidamente
    00:01:28
    diventare virale,
    00:01:29
    che interessa non solo un'azienda,
    00:01:31
    ma un intero settore.
    00:01:33
    Uno degli esempi più eclatanti
    00:01:35
    che può illustrare la vulnerabilità
    00:01:37
    imprese di fronte alla
    00:01:39
    la disinformazione è di Tesla
    00:01:42
    nel 2018.
    00:01:43
    Nell'agosto 2018, Elon Musk,
    00:01:46
    CEO di Tesla,
    00:01:48
    ha twittato che stava prendendo in considerazione
    00:01:50
    Rimuovi Tesla dal mercato azionario
    00:01:51
    e che aveva "il finanziamento assicurato".
    00:01:54
    Ciò ha portato a un'impennata del
    00:01:57
    Il prezzo delle azioni di Tesla è aumentato di oltre il 10%.
    00:01:59
    Tuttavia
    00:02:00
    in seguito si è scoperto che Musk
    00:02:02
    non aveva un piano concreto o
    00:02:04
    Finanziamento garantito per tale operazione.
    00:02:06
    La SEC (Securities and Exchange
    00:02:08
    Commissione) ha poi citato in giudizio Musk per
    00:02:11
    investitori fuorvianti.
    00:02:14
    Anche se questo non è un
    00:02:16
    Esempio diretto di deepfake o
    00:02:18
    disinformazione generata dall'IA,
    00:02:19
    Questo mostra come un
    00:02:22
    dichiarazione semplice,
    00:02:23
    vero o falso che sia,
    00:02:24
    può avere ripercussioni
    00:02:25
    prezzi delle azioni,
    00:02:27
    la reputazione di un'azienda e
    00:02:30
    fiducia degli investitori.
    00:02:32
    Trasponendo questo concetto alla capacità dell'IA
    00:02:35
    creare contenuti falsi,
    00:02:35
    Si possono immaginare le conseguenze
    00:02:37
    potenziale se, ad esempio, un
    00:02:39
    video falso di un CEO di un
    00:02:41
    grande azienda è stato trasmesso
    00:02:43
    dove avrebbe falsamente annunciato
    00:02:45
    Notizie dirompenti.
    00:02:47
    I mercati finanziari potrebbero
    00:02:49
    Reagisci prima ancora di controllare
    00:02:51
    l'autenticità della dichiarazione.
    00:02:52
    A livello sociale,
    00:02:54
    Le conseguenze sono ancora maggiori.
    00:02:57
    Le elezioni possono essere truccate,
    00:02:59
    le tensioni possono essere esacerbate,
    00:03:02
    Le famiglie possono essere divise
    00:03:04
    da verità contraddittorie.
    00:03:06
    Quando l'informazione diventa
    00:03:08
    indistinguibile dalla disinformazione,
    00:03:09
    la struttura stessa del nostro
    00:03:11
    La democrazia è messa alla prova.
    00:03:13
    Ma non è tutto rose e fiori.
    00:03:15
    Ci sono delle contromisure.
    00:03:17
    Giornalisti
    00:03:18
    Ricercatori e tecnologi
    00:03:20
    lavorare instancabilmente per rilevare
    00:03:23
    e combattere queste contraffazioni.
    00:03:24
    Sviluppano strumenti
    00:03:26
    per identificare i deepfake,
    00:03:28
    educare il pubblico sulla
    00:03:29
    Come individuare i segnali
    00:03:31
    e tentare di ripristinare il
    00:03:33
    La fiducia nell'era della post-verità.
    00:03:36
    Siamo a un bivio.
    00:03:38
    La tecnologia avanza e noi siamo
    00:03:40
    Dobbiamo andare avanti in questo senso
    00:03:42
    essere sempre informati,
    00:03:43
    Sempre vigile e sempre pronto
    00:03:45
    discernere la verità dalla finzione.

    Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
    Effectuez une autre recherche ou retournez au contenu !

     

    00:00:04
    人工知能図形
    00:00:06
    私たちの世界は、
    00:00:08
    想像もしていなかったでしょう。
    00:00:10
    ジェネレーティブAIは、
    00:00:12
    私たちの期待を上回りました。
    00:00:14
    今日では、
    00:00:15
    似たようなメロディーを作曲する
    00:00:16
    偉大な音楽家の人たちに、
    00:00:18
    で記事を書く
    00:00:20
    著名なジャーナリストのスタイル、
    00:00:21
    私たちを呼び起こす声を再現
    00:00:23
    好きな俳優や歌手、
    00:00:25
    Generate Faces & Videos If
    00:00:27
    あなたが思うほど現実的です
    00:00:28
    ハリウッド映画からの抜粋。
    00:00:32
    かつて追いやられていたもの
    00:00:33
    サイエンスフィクション小説のページ
    00:00:35
    今、私たちの目の前で命が吹き込まれます
    00:00:37
    DeepMindなどのアプリケーションのおかげで、
    00:00:40
    GPT-4かMidjourneyか...
    00:00:42
    ディープフェイクはアプリの一つです
    00:00:45
    このテクノロジーの最も物議を醸す側面。
    00:00:48
    有名人の動画を想像してみてください
    00:00:51
    爆発的な声明を出す。
    00:00:54
    ただし、このステートメントは
    00:00:56
    が作られました。私たちが
    00:00:58
    私たちが見たり聞いたりすることを頼りに、
    00:01:01
    その影響は壊滅的なものになる可能性があります。
    00:01:04
    企業は
    00:01:06
    特に脆弱です。
    00:01:07
    単純な偽のビデオがトリガーされる可能性があります
    00:01:10
    金融危機、年を台無しにする
    00:01:13
    ブランディングや大混乱を引き起こすこと
    00:01:15
    株主と顧客。
    00:01:17
    しかし、それだけではありません
    00:01:19
    それはすべてお金についてです。
    00:01:20
    信託
    00:01:20
    一度迷うと、
    00:01:21
    復元が困難です。で、
    00:01:25
    相互接続された企業の世界、
    00:01:26
    誤った情報はすぐに
    00:01:28
    バイラルになり、
    00:01:29
    企業だけでなく、
    00:01:31
    しかし、業界全体です。
    00:01:33
    最も顕著な例の1つ
    00:01:35
    脆弱性を示すことができる
    00:01:37
    に直面している企業
    00:01:39
    偽情報はテスラのものです
    00:01:42
    2018年に。
    00:01:43
    2018年8月、イーロンマスクは、
    00:01:46
    テスラのCEO、
    00:01:48
    検討中とツイートした
    00:01:50
    テスラを株式市場から排除する
    00:01:51
    そして、彼は「資金を確保した」と述べた。
    00:01:54
    これにより、
    00:01:57
    テスラの株価は10%以上上昇しました。
    00:01:59
    しかし
    00:02:00
    その後、マスク氏は
    00:02:02
    具体的な計画がなかったり、
    00:02:04
    そのための資金確保
    00:02:06
    SEC(証券取引委員会)
    00:02:08
    委員会)はその後、マスク氏を訴えた。
    00:02:11
    投資家を誤解させる。
    00:02:14
    これは
    00:02:16
    ディープフェイクの直接的な例や
    00:02:18
    AIが生成した誤情報、
    00:02:19
    これは、
    00:02:22
    単純な宣言、
    00:02:23
    真か偽かは別として、
    00:02:24
    影響がある可能性があります
    00:02:25
    株価、
    00:02:27
    企業の評判と
    00:02:30
    投資家の信頼。
    00:02:32
    これをAIの能力に置き換えると
    00:02:35
    虚偽のコンテンツを作成する。
    00:02:35
    その結果は想像に難くない
    00:02:37
    たとえば、
    00:02:39
    のCEOの偽造ビデオ
    00:02:41
    大企業が放送された
    00:02:43
    彼が虚偽の発表をするだろう場所
    00:02:45
    ディスラプティブなニュース。
    00:02:47
    金融市場は、
    00:02:49
    確認する前に対応
    00:02:51
    ステートメントの信憑性。
    00:02:52
    社会レベルでは、
    00:02:54
    その結果はさらに大きくなります。
    00:02:57
    選挙は不正に操作される可能性があり、
    00:02:59
    緊張が悪化する可能性があり、
    00:03:02
    家族を分けることができます
    00:03:04
    矛盾する真実によって。
    00:03:06
    情報が
    00:03:08
    誤報と見分けがつかない、
    00:03:09
    私たちの構造そのもの
    00:03:11
    民主主義が試されている。
    00:03:13
    しかし、悲観的なことばかりではありません。
    00:03:15
    対策があります。
    00:03:17
    ジャーナリスト
    00:03:18
    研究者・技術者
    00:03:20
    たゆまぬ努力で検出
    00:03:23
    そして、これらの偽造品と戦います。
    00:03:24
    彼らはツールを開発します
    00:03:26
    ディープフェイクを特定するには、
    00:03:28
    について一般の人々を教育する
    00:03:29
    兆候の見分け方
    00:03:31
    そして、復元を試みます。
    00:03:33
    ポスト・トゥルース時代への自信。
    00:03:36
    私たちは今、岐路に立っています。
    00:03:38
    テクノロジーは進歩しており、私たちは
    00:03:40
    私たちは、それを進める必要があります。
    00:03:42
    常に情報を得て、
    00:03:43
    常に警戒を怠らず、常に準備万端
    00:03:45
    真実とフィクションを見分けること。

    Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
    Effectuez une autre recherche ou retournez au contenu !

     

    00:00:04
    Kunstmatige intelligentie vormt
    00:00:06
    onze wereld op een manier die
    00:00:08
    Dat hadden we ons nooit kunnen voorstellen.
    00:00:10
    Generatieve AI's hebben
    00:00:12
    overtrof onze verwachtingen.
    00:00:14
    Vandaag de dag kunnen ze
    00:00:15
    Componeer gelijkaardige melodieën
    00:00:16
    aan die van grote musici,
    00:00:18
    Schrijf artikelen in de
    00:00:20
    stijl van gerenommeerde journalisten,
    00:00:21
    Reproduceer stemmen die onze
    00:00:23
    favoriete acteurs en zangers en
    00:00:25
    Gezichten en video's genereren als
    00:00:27
    zo realistisch als je zou denken dat ze waren
    00:00:28
    Fragmenten uit een Hollywood-film.
    00:00:32
    Wat ooit werd verbannen naar de
    00:00:33
    Pagina's van sciencefictionromans
    00:00:35
    komt nu voor onze ogen tot leven
    00:00:37
    dankzij applicaties zoals DeepMind,
    00:00:40
    GPT-4 of Midjourney...
    00:00:42
    Deepfakes behoren tot de apps
    00:00:45
    de meest controversiële aspecten van deze technologie.
    00:00:48
    Stel je een video voor van een beroemdheid
    00:00:51
    een explosief statement maken.
    00:00:54
    Behalve dat deze verklaring nooit is
    00:00:56
    is gemaakt. In een wereld waarin we
    00:00:58
    vertrouwen op wat we zien en horen,
    00:01:01
    De implicaties kunnen verwoestend zijn.
    00:01:04
    Bedrijven zijn
    00:01:06
    bijzonder kwetsbaar zijn.
    00:01:07
    Een eenvoudige vervalste video kan triggeren
    00:01:10
    Een financiële crisis, die jaren verpest
    00:01:13
    branding of het aanrichten van ravage onder
    00:01:15
    aandeelhouders en klanten.
    00:01:17
    Maar het is niet alleen
    00:01:19
    Het draait allemaal om het geld.
    00:01:20
    Vertrouwen
    00:01:20
    eenmaal verloren,
    00:01:21
    is moeilijk te herstellen. In een
    00:01:25
    onderling verbonden bedrijfswereld,
    00:01:26
    Verkeerde informatie kan snel
    00:01:28
    viraal gaan,
    00:01:29
    niet alleen een bedrijf, maar ook een
    00:01:31
    maar een hele industrie.
    00:01:33
    Een van de meest sprekende voorbeelden
    00:01:35
    die kwetsbaarheid kan illustreren
    00:01:37
    bedrijven in het licht van de
    00:01:39
    desinformatie is Tesla's
    00:01:42
    in 2018.
    00:01:43
    In augustus 2018 heeft Elon Musk,
    00:01:46
    Tesla's CEO,
    00:01:48
    tweette dat hij overwoog
    00:01:50
    Haal Tesla van de beurs
    00:01:51
    en dat hij "de financiering rond had".
    00:01:54
    Dit leidde tot een stijging van de
    00:01:57
    Tesla's aandelenkoers met meer dan 10%.
    00:01:59
    Echter
    00:02:00
    later bleek dat Musk
    00:02:02
    geen concreet plan had of
    00:02:04
    Financiering voor een dergelijke operatie.
    00:02:06
    De SEC (Securities and Exchange
    00:02:08
    Commissie) klaagde Musk vervolgens aan voor
    00:02:11
    het misleiden van beleggers.
    00:02:14
    Hoewel dit geen
    00:02:16
    Direct voorbeeld van een deepfake of
    00:02:18
    Door AI gegenereerde desinformatie,
    00:02:19
    Dit laat zien hoe een
    00:02:22
    eenvoudige verklaring,
    00:02:23
    of het nu waar of onwaar is,
    00:02:24
    kan gevolgen hebben
    00:02:25
    aandelenkoersen,
    00:02:27
    de reputatie van een bedrijf en
    00:02:30
    vertrouwen van beleggers.
    00:02:32
    Dit vertalen naar de mogelijkheden van AI
    00:02:35
    valse inhoud creëren,
    00:02:35
    Men kan zich de gevolgen voorstellen
    00:02:37
    potentieel als, bijvoorbeeld, een
    00:02:39
    vervalste video van een CEO van een
    00:02:41
    groot bedrijf werd uitgezonden
    00:02:43
    waar hij valselijk zou aankondigen
    00:02:45
    ontwrichtend nieuws.
    00:02:47
    De financiële markten zouden
    00:02:49
    Reageer voordat je het zelfs maar checkt
    00:02:51
    de authenticiteit van de verklaring.
    00:02:52
    Op maatschappelijk niveau
    00:02:54
    De gevolgen zijn nog groter.
    00:02:57
    Verkiezingen kunnen worden gemanipuleerd,
    00:02:59
    spanningen kunnen worden verergerd,
    00:03:02
    Gezinnen kunnen worden verdeeld
    00:03:04
    door tegenstrijdige waarheden.
    00:03:06
    Wanneer informatie wordt
    00:03:08
    niet te onderscheiden van desinformatie,
    00:03:09
    de structuur van onze
    00:03:11
    De democratie wordt op de proef gesteld.
    00:03:13
    Maar het is niet allemaal kommer en kwel.
    00:03:15
    Er zijn tegenmaatregelen.
    00:03:17
    Journalisten
    00:03:18
    Onderzoekers en technologen
    00:03:20
    Werk onvermoeibaar om te detecteren
    00:03:23
    en deze vervalsingen te bestrijden.
    00:03:24
    Ze ontwikkelen tools
    00:03:26
    om deepfakes te identificeren,
    00:03:28
    het publiek voor te lichten over de
    00:03:29
    Hoe herken je de borden?
    00:03:31
    en proberen de
    00:03:33
    Vertrouwen in het post-truth tijdperk.
    00:03:36
    We staan op een kruispunt.
    00:03:38
    De technologie gaat vooruit en wij
    00:03:40
    We moeten er werk van maken door
    00:03:42
    altijd op de hoogte zijn,
    00:03:43
    Altijd waakzaam en altijd paraat
    00:03:45
    om waarheid van fictie te onderscheiden.

    Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
    Effectuez une autre recherche ou retournez au contenu !

     

    00:00:04
    Formas de Inteligência Artificial
    00:00:06
    o nosso mundo de uma forma que
    00:00:08
    Nunca teríamos imaginado.
    00:00:10
    As IAs generativas têm
    00:00:12
    transcendeu as nossas expectativas.
    00:00:14
    Hoje, eles podem
    00:00:15
    Compor melodias semelhantes
    00:00:16
    aos de grandes músicos,
    00:00:18
    Escreva artigos no
    00:00:20
    estilo de jornalistas de renome,
    00:00:21
    Reproduzir vozes que evocam a nossa
    00:00:23
    atores e cantores favoritos e
    00:00:25
    Gerar rostos & vídeos se
    00:00:27
    tão realistas quanto você pensaria que eles eram
    00:00:28
    Trechos de um filme de Hollywood.
    00:00:32
    O que antes era relegado ao
    00:00:33
    Páginas de Romances de Ficção Científica
    00:00:35
    agora ganha vida diante dos nossos olhos
    00:00:37
    graças a aplicações como o DeepMind,
    00:00:40
    GPT-4 ou Midjourney...
    00:00:42
    Deepfakes estão entre os aplicativos
    00:00:45
    os aspetos mais controversos desta tecnologia.
    00:00:48
    Imagine um vídeo de uma celebridade
    00:00:51
    fazer uma declaração explosiva.
    00:00:54
    Só que esta afirmação nunca foi
    00:00:56
    foi feita. Num mundo onde
    00:00:58
    confie no que vemos e ouvimos,
    00:01:01
    As implicações podem ser devastadoras.
    00:01:04
    As empresas são
    00:01:06
    particularmente vulneráveis.
    00:01:07
    Um simples vídeo falsificado pode desencadear
    00:01:10
    Uma crise financeira, anos arruinados
    00:01:13
    marcando ou causando estragos entre
    00:01:15
    acionistas e clientes.
    00:01:17
    Mas não é só
    00:01:19
    É tudo sobre o dinheiro.
    00:01:20
    Confiança,
    00:01:20
    uma vez perdido,
    00:01:21
    é difícil de restaurar. Num estudo de
    00:01:25
    mundo corporativo interligado,
    00:01:26
    A desinformação pode ser rápida
    00:01:28
    viralizar,
    00:01:29
    afetando não só uma empresa,
    00:01:31
    mas toda uma indústria.
    00:01:33
    Um dos exemplos mais marcantes
    00:01:35
    que pode ilustrar a vulnerabilidade
    00:01:37
    empresas face à
    00:01:39
    a desinformação é da Tesla
    00:01:42
    em 2018.
    00:01:43
    Em agosto de 2018, Elon Musk,
    00:01:46
    CEO da Tesla,
    00:01:48
    tuitou que estava considerando
    00:01:50
    Remover Tesla do mercado de ações
    00:01:51
    e que tinha "o financiamento assegurado".
    00:01:54
    Esta situação levou a um aumento da
    00:01:57
    O preço das ações da Tesla subiu mais de 10%.
    00:01:59
    No entanto
    00:02:00
    mais tarde descobriu-se que Musk
    00:02:02
    não tinham um plano concreto ou
    00:02:04
    Financiamento garantido para tal operação.
    00:02:06
    A SEC (Valores Mobiliários e Câmbio)
    00:02:08
    Comissão) em seguida, processou Musk por
    00:02:11
    induzir os investidores em erro.
    00:02:14
    Embora este não seja um
    00:02:16
    Exemplo direto de deepfake ou
    00:02:18
    Desinformação gerada por IA,
    00:02:19
    Isto mostra como um
    00:02:22
    declaração simples,
    00:02:23
    se é verdadeiro ou falso,
    00:02:24
    pode ter repercussões
    00:02:25
    preços das ações,
    00:02:27
    a reputação de uma empresa e
    00:02:30
    confiança dos investidores.
    00:02:32
    Transpondo isso para a capacidade da IA
    00:02:35
    criar conteúdo falso,
    00:02:35
    Pode-se imaginar as consequências
    00:02:37
    potencial se, por exemplo, um
    00:02:39
    vídeo falsificado de um CEO de um
    00:02:41
    grande empresa foi transmitida
    00:02:43
    onde anunciaria falsamente
    00:02:45
    notícias disruptivas.
    00:02:47
    Os mercados financeiros poderiam
    00:02:49
    Reaja antes mesmo de verificar
    00:02:51
    a autenticidade da declaração.
    00:02:52
    A nível societal,
    00:02:54
    As consequências são ainda maiores.
    00:02:57
    As eleições podem ser fraudadas,
    00:02:59
    as tensões podem ser exacerbadas,
    00:03:02
    As famílias podem ser divididas
    00:03:04
    por verdades contraditórias.
    00:03:06
    Quando a informação se torna
    00:03:08
    indistinguível da desinformação,
    00:03:09
    a própria estrutura do nosso
    00:03:11
    A democracia está a ser posta à prova.
    00:03:13
    Mas nem tudo é desgraça.
    00:03:15
    Há contramedidas.
    00:03:17
    Jornalistas,
    00:03:18
    investigadores e tecnólogos
    00:03:20
    trabalhar incansavelmente para detetar
    00:03:23
    e combater estas contrafações.
    00:03:24
    Desenvolvem ferramentas
    00:03:26
    para identificar deepfakes,
    00:03:28
    educar o público sobre a
    00:03:29
    Como identificar os sinais
    00:03:31
    e tentar restaurar o
    00:03:33
    Confiança na era da pós-verdade.
    00:03:36
    Estamos numa encruzilhada.
    00:03:38
    A tecnologia está a avançar e nós estamos
    00:03:40
    Temos de avançar com ele:
    00:03:42
    estar sempre informado,
    00:03:43
    Sempre vigilante e sempre pronto
    00:03:45
    discernir a verdade da ficção.

    Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
    Effectuez une autre recherche ou retournez au contenu !

     

    00:00:04
    Hình dạng trí tuệ nhân tạo
    00:00:06
    Thế giới của chúng ta theo cách mà
    00:00:08
    Chúng tôi sẽ không bao giờ tưởng tượng được.
    00:00:10
    AI tạo ra có
    00:00:12
    vượt quá mong đợi của chúng tôi.
    00:00:14
    Hôm nay, họ có thể
    00:00:15
    Sáng tác các giai điệu tương tự
    00:00:16
    Đối với những nhạc sĩ vĩ đại,
    00:00:18
    Viết bài trong
    00:00:20
    phong cách của các nhà báo nổi tiếng,
    00:00:21
    Tái tạo giọng nói gợi lên
    00:00:23
    diễn viên và ca sĩ yêu thích và
    00:00:25
    Tạo khuôn mặt và video nếu:
    00:00:27
    thực tế như bạn nghĩ
    00:00:28
    Trích đoạn từ một bộ phim Hollywood.
    00:00:32
    Những gì đã từng xuống hạng
    00:00:33
    Các trang tiểu thuyết khoa học viễn tưởng
    00:00:35
    Bây giờ đến với cuộc sống trước mắt chúng ta
    00:00:37
    nhờ các ứng dụng như DeepMind,
    00:00:40
    GPT-4 hoặc Midjourney...
    00:00:42
    Deepfake là một trong những ứng dụng
    00:00:45
    Các khía cạnh gây tranh cãi nhất của công nghệ này.
    00:00:48
    Hãy tưởng tượng một video của một người nổi tiếng
    00:00:51
    đưa ra một tuyên bố bùng nổ.
    00:00:54
    Ngoại trừ việc tuyên bố này chưa bao giờ được
    00:00:56
    đã được thực hiện. Trong một thế giới mà chúng ta
    00:00:58
    dựa vào những gì chúng ta thấy và nghe,
    00:01:01
    Những tác động có thể tàn phá.
    00:01:04
    Các công ty là
    00:01:06
    đặc biệt dễ bị tổn thương.
    00:01:07
    Một video giả mạo đơn giản có thể kích hoạt
    00:01:10
    Một cuộc khủng hoảng tài chính, hủy hoại nhiều năm
    00:01:13
    xây dựng thương hiệu hoặc tàn phá giữa
    00:01:15
    cổ đông và khách hàng.
    00:01:17
    Nhưng nó không chỉ
    00:01:19
    Đó là tất cả về tiền.
    00:01:20
    Tin
    00:01:20
    một khi bị mất,
    00:01:21
    rất khó khôi phục. Trong một
    00:01:25
    thế giới doanh nghiệp kết nối với nhau,
    00:01:26
    Thông tin sai lệch có thể nhanh chóng
    00:01:28
    đi lan truyền,
    00:01:29
    ảnh hưởng đến không chỉ một công ty,
    00:01:31
    mà là cả một ngành công nghiệp.
    00:01:33
    Một trong những ví dụ nổi bật nhất
    00:01:35
    Điều đó có thể minh họa lỗ hổng
    00:01:37
    Các công ty đối mặt với
    00:01:39
    thông tin sai lệch là của Tesla
    00:01:42
    vào năm 2018.
    00:01:43
    Tháng 8/2018, Elon Musk,
    00:01:46
    CEO của Tesla,
    00:01:48
    tweet rằng anh ấy đang xem xét
    00:01:50
    Loại bỏ Tesla khỏi thị trường chứng khoán
    00:01:51
    và rằng anh ta đã "đảm bảo tài chính".
    00:01:54
    Điều này dẫn đến sự gia tăng trong
    00:01:57
    Giá cổ phiếu Tesla tăng hơn 10%.
    00:01:59
    Tuy nhiên
    00:02:00
    sau đó hóa ra Musk
    00:02:02
    không có kế hoạch cụ thể hoặc
    00:02:04
    Kinh phí được bảo đảm cho một hoạt động như vậy.
    00:02:06
    SEC (Chứng khoán và Sở giao dịch
    00:02:08
    Ủy ban) sau đó kiện Musk vì
    00:02:11
    đánh lừa các nhà đầu tư.
    00:02:14
    Mặc dù đây không phải là một
    00:02:16
    Ví dụ trực tiếp về deepfake hoặc
    00:02:18
    Thông tin sai lệch do AI tạo ra,
    00:02:19
    Điều này cho thấy làm thế nào một
    00:02:22
    khai báo đơn giản,
    00:02:23
    dù đúng hay sai,
    00:02:24
    có thể có hậu quả
    00:02:25
    giá cổ phiếu,
    00:02:27
    danh tiếng của công ty và
    00:02:30
    niềm tin của nhà đầu tư.
    00:02:32
    Chuyển điều này sang khả năng của AI
    00:02:35
    tạo nội dung sai lệch,
    00:02:35
    Người ta có thể tưởng tượng hậu quả
    00:02:37
    tiềm năng nếu, ví dụ, một
    00:02:39
    Video giả mạo của một CEO của một
    00:02:41
    Công ty lớn đã được phát sóng
    00:02:43
    nơi anh ta sẽ thông báo sai sự thật
    00:02:45
    tin tức gây rối.
    00:02:47
    Thị trường tài chính có thể
    00:02:49
    Phản ứng trước khi bạn kiểm tra
    00:02:51
    tính xác thực của tuyên bố.
    00:02:52
    Ở cấp độ xã hội,
    00:02:54
    Hậu quả còn lớn hơn.
    00:02:57
    Các cuộc bầu cử có thể bị gian lận,
    00:02:59
    căng thẳng có thể trở nên trầm trọng hơn,
    00:03:02
    Gia đình có thể được chia
    00:03:04
    bởi những sự thật mâu thuẫn.
    00:03:06
    Khi thông tin trở thành
    00:03:08
    không thể phân biệt với thông tin sai lệch,
    00:03:09
    Chính cấu trúc của chúng tôi
    00:03:11
    Dân chủ đang được thử thách.
    00:03:13
    Nhưng đó không phải là tất cả sự diệt vong và u ám.
    00:03:15
    Có biện pháp đối phó.
    00:03:17
    Thưa các nhà báo,
    00:03:18
    các nhà nghiên cứu và công nghệ
    00:03:20
    Làm việc không mệt mỏi để phát hiện
    00:03:23
    và chống lại những hàng giả này.
    00:03:24
    Họ phát triển các công cụ
    00:03:26
    để xác định deepfake,
    00:03:28
    Giáo dục công chúng về
    00:03:29
    Làm thế nào để phát hiện các dấu hiệu
    00:03:31
    và cố gắng khôi phục
    00:03:33
    Tự tin vào thời kỳ hậu sự thật.
    00:03:36
    Chúng ta đang ở ngã ba đường.
    00:03:38
    Công nghệ đang tiến bộ và chúng tôi đang
    00:03:40
    Chúng ta cần tiến về phía trước với nó bằng cách
    00:03:42
    luôn được thông báo,
    00:03:43
    Luôn cảnh giác và luôn sẵn sàng
    00:03:45
    để phân biệt sự thật với hư cấu.

    Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
    Effectuez une autre recherche ou retournez au contenu !

     

    00:00:04
    人工智慧形狀
    00:00:06
    我們的世界在某種程度上
    00:00:08
    我們從未想像過。
    00:00:10
    生成式 AI 具有
    00:00:12
    超出了我們的預期。
    00:00:14
    今天,他們可以
    00:00:15
    創作相似的旋律
    00:00:16
    獻給那些偉大的音樂家,
    00:00:18
    00:00:20
    著名記者的作風,
    00:00:21
    再現喚起我們的聲音
    00:00:23
    最喜歡的演員和歌手和
    00:00:25
    生成人臉和視頻,如果
    00:00:27
    和你想像的一樣現實
    00:00:28
    好萊塢電影節選。
    00:00:32
    曾經被降級到
    00:00:33
    科幻小說頁面
    00:00:35
    現在在我們眼前栩栩如生
    00:00:37
    多虧了DeepMind等應用程式,
    00:00:40
    GPT-4 或 Midjourney...
    00:00:42
    Deepfakes 是其中的應用程式之一
    00:00:45
    這項技術最具爭議的方面。
    00:00:48
    想像一下名人的視頻
    00:00:51
    發表爆炸性聲明。
    00:00:54
    除了這個說法從來沒有
    00:00:56
    已經製作完成。在一個我們的世界里
    00:00:58
    依靠我們的所見所聞,
    00:01:01
    其影響可能是毀滅性的。
    00:01:04
    公司是
    00:01:06
    特別脆弱。
    00:01:07
    一個簡單的偽造視頻可以觸發
    00:01:10
    一場金融危機,毀掉了歲月
    00:01:13
    烙印或造成嚴重破壞
    00:01:15
    股東和客戶。
    00:01:17
    但這不僅僅是
    00:01:19
    這一切都與錢有關。
    00:01:20
    信任
    00:01:20
    一旦迷失,
    00:01:21
    很難恢復。在一個
    00:01:25
    互聯互通的企業世界,
    00:01:26
    錯誤資訊可以很快
    00:01:28
    病毒式傳播,
    00:01:29
    不僅影響一家公司,
    00:01:31
    而是一個完整的行業。
    00:01:33
    最引人注目的例子之一
    00:01:35
    可以說明漏洞
    00:01:37
    公司面對
    00:01:39
    虛假資訊是特斯拉的
    00:01:42
    在這一年裡 2018.
    00:01:43
    2018年8月,埃隆·馬斯克(Elon Musk),
    00:01:46
    特斯拉首席執行官,
    00:01:48
    在推特上說他正在考慮
    00:01:50
    將特斯拉從股市中移除
    00:01:51
    並且他有「融資擔保」。
    00:01:54
    這導致了
    00:01:57
    特斯拉股價上漲超過10%。
    00:01:59
    然而
    00:02:00
    後來事實證明,馬斯克
    00:02:02
    沒有具體計劃或
    00:02:04
    為這種行動爭取到資金。
    00:02:06
    美國證券交易委員會(SEC
    00:02:08
    Commission)隨後起訴馬斯克
    00:02:11
    誤導投資者。
    00:02:14
    雖然這不是一個
    00:02:16
    deepfake的直接例子或
    00:02:18
    人工智慧生成的錯誤資訊,
    00:02:19
    這顯示了
    00:02:22
    簡單申報,
    00:02:23
    無論是真是假,
    00:02:24
    可能會產生影響
    00:02:25
    股價
    00:02:27
    公司的聲譽和
    00:02:30
    投資者信心。
    00:02:32
    將其轉化為人工智慧的能力
    00:02:35
    創建虛假內容,
    00:02:35
    後果可想而知
    00:02:37
    例如,如果
    00:02:39
    一家CEO的假視頻
    00:02:41
    大公司播出
    00:02:43
    他會在哪裡虛假宣佈
    00:02:45
    破壞性新聞。
    00:02:47
    金融市場可以
    00:02:49
    在檢查之前做出反應
    00:02:51
    陳述的真實性。
    00:02:52
    在社會層面,
    00:02:54
    後果甚至更大。
    00:02:57
    選舉可以縱,
    00:02:59
    緊張局勢可能會加劇,
    00:03:02
    家庭可以分開
    00:03:04
    通過相互矛盾的事實。
    00:03:06
    當信息成為
    00:03:08
    與錯誤信息無法區分,
    00:03:09
    我們的結構
    00:03:11
    民主正在經受考驗。
    00:03:13
    但這並不全是厄運和陰霾。
    00:03:15
    有對策。
    00:03:17
    記者
    00:03:18
    研究人員和技術人員
    00:03:20
    孜孜不倦地工作以檢測
    00:03:23
    並打擊這些假冒產品。
    00:03:24
    他們開發工具
    00:03:26
    識別深度偽造,
    00:03:28
    教育公眾
    00:03:29
    如何發現這些跡象
    00:03:31
    並嘗試恢復
    00:03:33
    對後真相時代的信心。
    00:03:36
    我們正處於十字路口。
    00:03:38
    技術在進步,我們是
    00:03:40
    我們需要通過以下方式向前邁進
    00:03:42
    總是被告知,
    00:03:43
    時刻保持警惕,時刻準備著
    00:03:45
    辨別真實與虛構。

    Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
    Effectuez une autre recherche ou retournez au contenu !

     

    Mandarine AI: CE QUI POURRAIT VOUS INTÉRESSER

    Rappel

    Afficher