-
En discutant du problème aujourd’hui, je me rend compte que toutes les solutions « souveraines » souffrent d’un énorme biais sur les analyses de risque…
-
Les gens sont complètement focalisés sur le « business sale » des GAFAM & cie et comptent échapper à ça en relocalisant tout ça et en (cherchant à) évitant ce morceau.
-
Mais les risques conventionnels que les GAFAM vont eux chercher à résoudre, et souvent vachement efficacement même si forcément c’est pas parfait ? Ça passe COMPLÈTEMENT à la trappe…
-
Votre business modèle est (peut-être) vertueux. Mais un employé verreux qui se barre avec les données ? Comment vous le détecter plus ou moins préventivement ? Vous avez des IDS/IPS sur votre réseau ?
-
Un APT qui a vu que vous aviez un poil trop de données sensibles et vous colle une grosse cible sur la tête ? Vous l’encaissez comment ?
-
Vous détectez comment que vous avez une base de données qui est exposé dans la nature et que quelqu’un vient de la télécharger ? Vous avez réellement des sondes réseaux pour détecter cette intrusion et pas juste au moment où les données sont au marché noir ?
-
Si votre modèle de menace se résume à « n’importe quoi sauf GAFAM », ben vous aurez… surtout n’importe quoi…
-
Typiquement, Google a peut-être un business modèle crade, mais ils ont aussi des procédures et outils de détection en interne pour identifier les employés malicieux et les licencier. phonandroid.com/google-licencie-des-dizaines-demployes-par-an-pour-vol-et-revente-des-donnees-confidentielles.html Vous avez ça dans votre solution FR ?
-
Encore un exemple ? Facebook détecte les détournements de finalité internes et idem, licencie les employés en cause. businessinsider.fr/us/facebook-fired-dozens-abusing-access-user-data-an-ugly-truth-2021-7 Vous avez ça aussi ?
-
Je n’ai pas d’exemple dans la presse, mais vous pensez bien que les GAFAM sont en veille permanente sur les forums underground pour détecter les ventes de données en provenance potentielle de leur système. Vous faites aussi ce type de veille ?
-
Les GAFAM, c’est un modèle de menace qui couvre un spectre EXTRÊMEMENT vaste, qui est du coup financé et existant, vu le fric engrangé. Les solutions « souveraines » troquent trop souvent un modèle de menace très complet avec effectivement un business modèle pourri contre un
-
modèle de menace quasi inexistant et un business modèle souvent bancal…
-
Tient, ça vient de tomber et ça rentre tout pile dans la ligne directe de ce que je disais juste avant ! blog.twitter.com/engineering/en_us/topics/insights/2021/how-we-rolled-out-security-keys-at-twitter
-
Et du coup le post de 2020 qui résume aussi vachement bien les choses : blog.twitter.com/en_us/topics/company/2020/our-continued-work-to-keep-twitter-secure Faites la liste de tout ça. Mettez des coches en face de ce que les solutions « souveraines » font en pratique. Et pleurez…
-
On vient de me filer ça aussi tient : support.google.com/a/answer/9230979#zippy=%2Cpersonnaliser-les-donn%C3%A9es-ou-exporter-le-journal-daudit%2Couvrir-le-journal-daccess-transparency Vous avez ça aussi dans vos solutions ?
-
On peut aussi parler en fonctionnalité produit pure. Exemple chez Microsoft : docs.microsoft.com/fr-fr/microsoft-365/compliance/alert-policies
-
Je continue sur le sujet vu que la discussion continue aussi en privé :D L’origine du truc est aussi à mettre au crédit des préconisations #SecNumCloud de l’@ANSSI_FR Certaines exigences en ont littéralement effrayés certains…
-
Je vous le fais en TLDR, mais ça ressemblait à « mais comment qu’on peut être conforme avec un business model viable avec autant d’exigence à la con ».
-
sous-traitants type OVH ou Scaleway ?
-
C’est le genre d’exigences qui devraient pourtant aller de soi là comme ça. Leur intégration dans le produit final est pourtant souvent hautement complexe et voit les coûts exploser, ou en tout cas dépasser largement le maximum admissible pour une offre « vendable ».
aeris22’s Twitter Archive—№ 106,186





