En choisissant d’installer un de ces assistants dans notre maison ou notre bureau, nous acceptons qu’un micro écoute en permanence ce qui se passe dans la pièce, et que des données soient collectées. C’est le principe de l’assistant, qui doit écouter, pour comprendre lorsque nous lui parlons, et exécuter les commandes qu’il reçoit.
Ces assistants, Google Home, Amazon Alexa, Apple iHome, mais également les Siri et Google Assistants de nos téléphones, écoutent en permanence. Qu’entendent-ils ? Que cherchent-ils à comprendre ?
Bien sûr, ils cherchent en priorité à comprendre si nous nous adressons à eux. Mais ils « entendent » donc beaucoup d’autres choses. Sont-ils capables de les comprendre ?
Très certainement ! Car dans les exemples cités par Michel Levy Provençal, les paroles, bruits, ou plus globalement les courbes sonores, peuvent être très caractéristiques.
Prenons quelques exemples : des cas d’accidents domestiques pour commencer, détection de chute, sifflement anormal et risque d’explosion d’une cocotte-minute, bruit de feu (oui, le feu fait du bruit parfaitement détectable), etc. Les cas sont nombreux où l’écoute de l’assistant personnel, puis l’analyse des bruits écoutés, permettraient de comprendre une situation, et d’enclencher une action, appel des secours, prévenir un voisin ou le gardien de l’immeuble. Nous n’y voyons que du bien !
Autre exemple, un appel à l’aide. Je viens de faire une chute dans mon appartement, je ne peux pas atteindre mon téléphone, mais je peux parler à mon assistant et lui demander d’appeler les secours. Il peut même, si je n’ai plus les idées très claires, interpréter mes quelques mots pour déclencher les secours. Par exemple, si je n’ai pas le réflexe de commencer par la phrase magique « OK Google », Google Home pourrait néanmoins me porter assistance.
Venons-en maintenant aux cas où l’assistant personnel écoute et entend quelque chose qui ne lui est pas destiné… et Michel Levy Provençal cite les cas de violences conjugales, consommation de drogues, comportements addictifs, adultère… Dans quels cas accepterions-nous que l’assistant personnel prenne des initiatives ?
Violences conjugales : qui oserait dire que l’assistant personnel, qui comprend qu’il se passe quelque chose d’anormal, ne devrait pas prévenir la police ? Tout le monde sera d’accord pour valider ce scénario. Ajoutons à ce scénario l’agression, l’inceste ou la pédophilie !
Consommation de drogues : si l’on est dans le cas d’une consommation interdite par la loi, ou d’un trafic, là encore, l’assistant personnel ne devrait-il pas participer à l’application de la loi ?
Adultère… ce n’est plus contraire à la loi ! Mais… puis-je paramétrer mon assistant personnel, pour qu’il surveille éventuellement ce type de comportement en mon absence ? Quid de la vie privée, quid de la protection du domicile, mais qui est également le mien… sujet compliqué.
Mais si je peux le paramétrer, peut-on alors imaginer qu’il soit paramétrable de l’extérieur ? Un gouvernement pourrait-il paramétrer une surveillance des propos de certains opposants ? Bien entendu, nous ne voulons pas, ne serait-ce qu’envisager cette option.
Ces assistants, Google Home, Amazon Alexa, Apple iHome, mais également les Siri et Google Assistants de nos téléphones, écoutent en permanence. Qu’entendent-ils ? Que cherchent-ils à comprendre ?
Bien sûr, ils cherchent en priorité à comprendre si nous nous adressons à eux. Mais ils « entendent » donc beaucoup d’autres choses. Sont-ils capables de les comprendre ?
Très certainement ! Car dans les exemples cités par Michel Levy Provençal, les paroles, bruits, ou plus globalement les courbes sonores, peuvent être très caractéristiques.
Prenons quelques exemples : des cas d’accidents domestiques pour commencer, détection de chute, sifflement anormal et risque d’explosion d’une cocotte-minute, bruit de feu (oui, le feu fait du bruit parfaitement détectable), etc. Les cas sont nombreux où l’écoute de l’assistant personnel, puis l’analyse des bruits écoutés, permettraient de comprendre une situation, et d’enclencher une action, appel des secours, prévenir un voisin ou le gardien de l’immeuble. Nous n’y voyons que du bien !
Autre exemple, un appel à l’aide. Je viens de faire une chute dans mon appartement, je ne peux pas atteindre mon téléphone, mais je peux parler à mon assistant et lui demander d’appeler les secours. Il peut même, si je n’ai plus les idées très claires, interpréter mes quelques mots pour déclencher les secours. Par exemple, si je n’ai pas le réflexe de commencer par la phrase magique « OK Google », Google Home pourrait néanmoins me porter assistance.
Venons-en maintenant aux cas où l’assistant personnel écoute et entend quelque chose qui ne lui est pas destiné… et Michel Levy Provençal cite les cas de violences conjugales, consommation de drogues, comportements addictifs, adultère… Dans quels cas accepterions-nous que l’assistant personnel prenne des initiatives ?
Violences conjugales : qui oserait dire que l’assistant personnel, qui comprend qu’il se passe quelque chose d’anormal, ne devrait pas prévenir la police ? Tout le monde sera d’accord pour valider ce scénario. Ajoutons à ce scénario l’agression, l’inceste ou la pédophilie !
Consommation de drogues : si l’on est dans le cas d’une consommation interdite par la loi, ou d’un trafic, là encore, l’assistant personnel ne devrait-il pas participer à l’application de la loi ?
Adultère… ce n’est plus contraire à la loi ! Mais… puis-je paramétrer mon assistant personnel, pour qu’il surveille éventuellement ce type de comportement en mon absence ? Quid de la vie privée, quid de la protection du domicile, mais qui est également le mien… sujet compliqué.
Mais si je peux le paramétrer, peut-on alors imaginer qu’il soit paramétrable de l’extérieur ? Un gouvernement pourrait-il paramétrer une surveillance des propos de certains opposants ? Bien entendu, nous ne voulons pas, ne serait-ce qu’envisager cette option.
Comment procéder ? Qui décidera ?
Doit-on accepter de ne pas détecter des violences conjugales, ou l’overdose d’un adolescent, pour préserver notre liberté de penser ? Le décès d’une femme, d’un homme ou d’un enfant, vaut-il moins que la liberté de penser le contraire du gouvernement ?
La question doit donc se poser : l’assistant personnel peut-il, ou doit-il dénoncer certains comportements ? Si oui, qui décide de la liste de ces comportements ?
La question doit donc se poser : l’assistant personnel peut-il, ou doit-il dénoncer certains comportements ? Si oui, qui décide de la liste de ces comportements ?
De la dénonciation à la non-dénonciation
Et si l’on va plus loin, imaginons que la preuve soit apportée que votre assistant personnel est capable d’entendre et de comprendre une situation. Imaginons qu’il n’ait pas réagi, et qu’il n’ait pas alerté les secours, ou dénoncé cette situation, par exemple de violences conjugales ou d’agression. Imaginons qu’une personne soit malheureusement décédée ou blessée. Ne peut-on pas imaginer se retourner contre l’assistant personnel, ou plutôt contre ses développeurs (Amazon, Google, Apple…), pour non-dénonciation de crime ou pour non-assistance à personne en danger ?
Dans quelle direction pensez-vous que nous devons aller ? Et avec quelles limites ?
Dans quelle direction pensez-vous que nous devons aller ? Et avec quelles limites ?
Autres articles
-
Rivery intègre Amazon Q, l’assistant alimenté par l’IA d’AWS
-
Teradata s’associe à Google Cloud pour proposer des offres d’IA de confiance à l’échelle de l’entreprise afin d’accélérer le délai de rentabilité et le ROI
-
Les PME axées sur les données, un moteur de croissance financière – et l'écart se creuse
-
Starburst et Google Distributed Cloud proposent une solution d'analyse des données sécurisée aux entreprises hautement réglementées
-
Podcast : Quel appareil pour embarquer demain l’intelligence artificielle au plus près de notre corps ?