@hypolite @gduchaussois @malauss je serais surpris qu’il y ait une quelconque promesse où que ce soit. Mais je ne vais pas m’amuser à défendre la bourse ou la retraite par capitalisation donc c’est peut être pas la peine de débattre sur quelque chose où on est déjà d’accord :p . Mon message avait juste pour but de relever le fait que l’argument et l’exemple donnés ne me semblent pas sérieusement recevables pour décourager le chemin que prend la France vers une retraite par capitalisation

@gduchaussois @malauss loin de moi l’idée de défendre la retraite par capitalisation mais : (1) le graphe est trop zoomé, si je devais parier je dirais qu'il est revenu à sa richesse de ~2023, donc qu’en 2 ans il avait multiplié son épargne par 1.25 (2) C'est biaisé de publier ce genre de graphe en plein début de crise, il a probablement déjà rattrapé la moitié de ses "pertes". Mais dans l'idée oui : on ne peut pas décemment forcer les gens à risquer ses vieux jours à la loterie

@siltaer @Khrys j'ai exactement la même expérience (avec une timeline différente, et je n'ai pris aucune contremesure avant début avril, donc on ne peut pas vraiment parler de "riposte" de la part des bots, juste une escalade continue avant le temps). Résultat : toutes les pages publiques que j'avais sont devenues privées. :sad:

@bortzmeyer @linuxine certes, mes sites sur pages statiques ne sont pas bloquées. Mais ma forge logicielle et les sites dynamiques style shaarli j’ai pas eu le choix si je voulais pas finir noyé.

@bortzmeyer @linuxine bref, du coup j’ai tout bloqué (à part la première page) et les utilisateurs sont obligés de faire une authentification http pour autre chose que "quelques pages"

@linuxine @bortzmeyer en plus ce que j’héberge c’est par exemple des sites avec nuage de tags (shaarli), donc une "inifinité" potentielle de pages à crawler

@linuxine @bortzmeyer non juste ne pas faire 300 requêtes par seconde et recommencer à crawler le site depuis le début avant même d’avoir fini le premier crawl

@bortzmeyer ben tout le monde paye pour ceux qui ne le sont pas, parce que j’ai pas les moyens de filtrer ces derniers. Je vois pas comment faire autrmeent en fait à part subir une charge de 50 (pour 6 procs) presque 40% du temps

@bortzmeyer s’ils avaient un minimum de respect lors de leurs crawl (comme un bot "normal" en quelques sortes) je n’aurais pas été obligé d’en arriver là

@bortzmeyer j’ai été obligé de bloquer les IA (et les gens normaux par la même occasion, en laissant juste une page d’accueil avec un message indiquant comment se connecter avec un compte invité), parce que mon serveur était en permanence en surcharge à cause d’eux. J’estime que c’est pas à moi de payer pour eux, et je comprends très bien que tout le monde fasse un peu pareil (même si ça m’attriste qu’internet devienne de plus en plus pénible à naviguer pour les gens)

@arthurrainbow moi j’ai plutôt la crainte inverse. Que le nom "Le Pen" faisait effet de repoussoir pour pas mal de gens, et que le score du RN va bondir si c’est une personne avec moins de passif comme Bardella (quelqu’un a mentionné Retailleau aussi) qui se présente.

@ptitfred @Signez y’a même les petites inclusion en douce, l’imitation humaine est parfaite (au tout début du code on voit la ligne newRepoName qui est déplacée d’un bloc alors qu’elle ne gêne probableemnt pas où elle est (même si elle fait effectivement quelque chose d’inutile au cas où il y a une erreur)

@_nb je n’utilisais gandi que pour le DNS, j’ai tendance à auto-héberger le reste. Mais 5 fois le prix d’infomaniak pour un domaine j’ai trouvé ça un peu abusé

@_nb Jusqu’à y’a quelques années j’aurais mis 10 sans hésiter, et je le conseillais même régulièrement à mes clients. Là je suis en train de tout migrer à Infomaniak, et je vais conseiller à mes clients de faire pareil...

@lacontrevoie @rakoo dans l’idée savoir que mes fichiers privés peuvent être sur un pc d’un quidam qui partage son espace disque (même s’il a promis-juré de pas aller voir) me ferait tilter bien plus que savoir que bidule.com partage mes données de visite de leur site avec 123 partenaires.

@rakoo @lacontrevoie non je parle des admins de la "fédération garage" que tu as mentionnée. Mes clients me font confiance (ou pas, mais ils le disent pas, ou ils envoient que des fichiers chiffrés, j’en sais rien), mais auraient-ils la même confiance si je leur disais que leurs fichier sont en réalité stockés sur un pc dont je ne sais même pas qui est le propriétaire ?

@rakoo @lacontrevoie J’aime bien l’idée du partage, mais j’imagine que les fichiers sont en clair sur chaque instance garage, donc pour ce genre de solution il faudrait que nextcloud chiffre avant envoi non ?

@lacontrevoie Merci. J’avais effectivement (entre autre) garage en tête oui mais sans redondance on perd l’intérêt d’un s3. Mais peut être que je me prends un peu trop la tête sur deux points qui peuvent être décorrelés (la redondance d’une part et l’usage de s3 d’autre part). Et merci pour le lien de migration !

@lacontrevoie Je voudrais faire le même genre de choses (enfin le premier point) mais j’arrive pas à me décider, sur la difficulté à migrer d’une part (j’ai presque 1TB de données dans NC) et sur comment faire un S3 sans que ça devienne prise de tête à gérer (est-ce que je self-hoste ou bien je délègue ?), vous avez eu ce genre de problématiques ? (+ les soucis liés à la confidentialité des données etc.)

Show more
Mastodon

mastodon.immae.eu is one server in the network