Déjame contarte cómo funciona el libreto.
Una empresa de tecnología anuncia una medida que, sobre el papel, parece lo mínimo de responsabilidad civilizada. En el caso de Discord, verificación de edad para proteger a los niños de contenido adulto. Algo que cualquier padre de familia vería y diría: "obvio, debería haberse hecho hace años."
Entonces viene el ruido. Los usuarios se quejan. Los influencers graban videos. La comunidad "se moviliza". Y la empresa — sorpresa — da marcha atrás.
Libreto conocido. Viejo como el mercado.
Discord y el Espejo de la Big Tech
Discord es una plataforma de comunicación que nació para gamers y se convirtió en el bar de la esquina de internet. Más de 500 millones de cuentas registradas. Comunidades de todo tipo — desde teología cristiana hasta contenido que ningún padre quiere que su hijo de 13 años vea.
La plataforma anunció que implementaría verificación de edad obligatoria para acceder a ciertos servidores y contenidos. Parecía simple. Parecía obvio.
Duró menos que una promesa de político en año electoral.
Tras la presión pública — y probablemente una presión mucho menos pública de quienes tienen interés financiero en mantener el acceso sin restricciones — Discord pospuso el rollout. La empresa usó el lenguaje clásico del corporativismo moderno: "escuchamos el feedback de la comunidad", "queremos implementarlo de la manera correcta", "estamos revisando el enfoque."
Traducción del corporativés al español de la calle: nos echamos para atrás, pero vamos a fingir que fue una decisión estratégica.
¿Skin in the Game? Cero.
Aquí entra Taleb con el mazo.
¿Quienes tomaron la decisión de retroceder en Discord tienen hijos que usan la plataforma? ¿Los ejecutivos que "escucharon el feedback de la comunidad" tienen adolescentes navegando en servidores sin moderación de edad? ¿Los inversores que seguramente rezan para que el engagement no caiga — ellos tienen piel en el juego cuando se trata de quién consume el contenido?
Claro que no.
Ese es el problema central de Silicon Valley y de buena parte de la Big Tech: las decisiones las toman personas que no cargan con las consecuencias. El ingeniero que diseña el algoritmo de recomendación no es el padre del niño de 11 años que fue empujado hacia contenido de autolesión. El CEO que da marcha atrás en la política de verificación de edad no es quien va a tener esa conversación difícil en casa.
Es el viejo problema del agente versus el principal. Solo que aquí el "principal" es un niño que no tiene voto en la asamblea de accionistas.
El Negocio Detrás de la Protección
Seamos honestos sobre lo que está en juego financieramente.
Discord tiene presión para crecer. Más usuarios, más engagement, más datos, más valuación. La fricción en el onboarding — como una verificación de edad — reduce la conversión. Menos conversión, menos crecimiento. Menos crecimiento, analista de traje frunciendo el ceño sobre el modelo de DCF.
Así de simple.
La protección de menores es costo. El engagement sin barreras es ingreso. Cuando entiendes esa ecuación, la reversa de Discord deja de ser sorprendente y se vuelve absolutamente predecible.
Y lo peor: no es solo Discord. Es el libreto de cualquier plataforma que intenta equilibrar regulación, presión de usuarios y apetito de inversores. Meta hizo esto por años con la salud mental de los adolescentes. YouTube lo hace con las recomendaciones para niños. TikTok lo elevó a una forma de arte.
El circo tiene dueños. Y los dueños tienen metas de crecimiento.
Lo Que el Inversor Debería Leer en Esta Historia
Si inviertes en tech — ya sea directo, vía ETF, o a través de un fondo que asigna afuera — esta historia te dice algo importante.
La regulación viene. Y viene dura.
Europa ya va adelante con el Digital Services Act. Estados Unidos se está moviendo, aunque lentamente. América Latina tiene sus propios marcos legales, y más temprano que tarde alguien va a recordar que las plataformas digitales tienen obligaciones con los usuarios menores de edad.
Una empresa que no se anticipa a la regulación y se queda en el juego del avanza-y-retrocede está acumulando riesgo regulatorio en el balance. Ese riesgo no aparece en el P&L trimestral. Aparece de repente, como una multa, como una restricción operativa, como una investigación del Congreso.
Al que avisa no le toca culpa.
Discord va a implementar la verificación de edad eventualmente. Porque van a estar obligados. No porque quisieron. No porque "escucharon a la comunidad".
Y cuando eso pase, algún ejecutivo va a dar una entrevista diciendo que la empresa siempre se preocupó por la seguridad de los usuarios.
Ahí ya sabes qué hacer: apretar los dientes, morder el labio, y recordar que en el mercado — como en la vida — quien no tiene skin in the game no tiene autoridad moral para hablar.
La pregunta que queda: ¿cuántas decisiones "estratégicas" en las que creíste eran, en realidad, solo una reversa disfrazada de sabiduría?