https://mail.google.com/mail/u/0/?ui=2&ik=3ab76eea9c&view=att&th=1648a6d4d6c2fa40&attid=0.1&disp=safe&zw
BYMADATA - Cotizaciones en Tiempo Real | BYMA Bolsas y Mercados Argentinos

Responsabilidad de Twitter por falta de control en la verificación de cuentas

 A poco de llevarse a cabo las elecciones de segundo término en EE.UU., Twitter Inc. lanzó el denominado servicio Twitter Blue, que consiste en una “verificación” del usuario que implica -en la práctica- identificarlo con una insignia azul[1]. En efecto, Twitter Blue proporciona una marca de verificación -entre otros beneficios, como ser la posibilidad de subir videos de mayor duración, disminución de anuncios, etc- a los usuarios que se suscriban mediante el pago de 8 dólares mensuales[2]. Dicho servicio pareciera estar limitado -por el momento- a usuarios de pocos países (Estados Unidos, Canadá, Reino Unido, Australia y Nueva Zelanda). Adicionalmente, Twitter incorporó una verificación adicional exclusivamente destinada a cuentas relacionadas con personalidades, medios y empresas, exhibiendo una etiqueta gris donde puede leerse "Oficial"[3]

 

Como era de imaginar, la avalancha de cuentas falsas no se hizo esperar[4]. La gravedad de la situación fue de tal magnitud que Twitter tomó la decisión de suspender -al menos por un tiempo- el servicio de Twitter Blue.  Es que, presumiblemente, la urgencia en lanzar el nuevo servicio hizo relativizar los filtros y controles necesarios para asegurarse que quienes verifiquen una cuenta sean realmente quienes dicen ser. 

 

Pero hubo un caso que, entiendo, resulta ejemplificador de los daños que puede causar un servicio como el de Twitter Blue. Me refiero a lo que ocurrió con la farmacéutica Eli Lilly[5], que experimentó una caída en la bolsa de un poco más del 4% del valor de sus acciones en oportunidad en que un usuario de Twitter, luego de “verificar” una cuenta con la marca azul como si fuera de Eli Lilly, anunciara que la insulina pasaba a ser gratuita.  

 

En tal contexto, cabe preguntarse cómo debería ser evaluada la responsabilidad de una plataforma como Twitter frente a un reclamo por los daños causados por falta de control en la verificación de cuentas.

 

Si un reclamo como este se iniciara en Argentina, entiendo que no podría invocarse la doctrina y jurisprudencia existente en materia de conocimiento efectivo (también denominada como safe harbour, y que dio lugar al denominado procedimiento de "Notice and Take Down").  En efecto, no resultaría de aplicación la doctrina judicial elaborada por la Corte Suprema de Justicia de la Nación (en adelante, “CSJN”) in re “Rodríguez Belén”[6].  En tal leading case, la CSJN indicó que el buscador de Internet responderá cuando haya tomado efectivo conocimiento de la ilicitud del contenido, y tal conocimiento no haya sido seguido de un actuar diligente[7].

 

En otros términos, la CSJN consideró que de verificarse el conocimiento efectivo del contenido ilícito, “la ajenidad del buscador desaparece”, y si no se elimina el resultado de búsqueda, dicho ISP responderá a título de culpa.  Con gran valor hermenéutico, y en particular ante la ausencia de legislación específica en la materia, la CSJN puntualizó: “[…] A los efectos del efectivo conocimiento requerido para la responsabilidad subjetiva, cabe preguntarse si es suficiente que el damnificado curse una notificación privada al "buscador" o si, por el contrario, es exigible la comunicación de una autoridad competente. En ausencia de una regulación legal específica, conviene sentar una regla que distinga nítidamente los casos en que el daño es manifiesto y grosero, a diferencia de otros en que es opinable, dudoso o exige un esclarecimiento, lo que registra antecedentes en alguna legislación […][8]Son manifiestas las ilicitudes respecto de contenidos dañosos, como pornografía infantil, datos que faciliten la comisión de delitos, que instruyan acerca de éstos, que pongan en peligro la vida o la integridad física de alguna o muchas personas, que hagan apología del genocidio, del racismo o de otra discriminación con manifiesta perversidad o incitación a la violencia, que desbaraten o adviertan acerca de investigaciones judiciales en curso y que deban quedar secretas, como también los que importen lesiones contumeliosas al honor, montajes de imágenes notoriamente falsos o que, en forma clara e indiscutible, importen violaciones graves a la privacidad exhibiendo imágenes de actos que por su naturaleza deben ser incuestionablemente privados, aunque no sean necesariamente de contenido sexual. La naturaleza ilícita -civil o penal- de estos contenidos es palmaria y resulta directamente de consultar la página señalada en una comunicación fehaciente del damnificado o, según el caso, de cualquier persona, sin requerir ninguna otra valoración ni esclarecimiento. Por el contrario, en los casos en que el contenido dañoso que importe eventuales lesiones al honor o de otra naturaleza, pero que exijan un esclarecimiento que deba debatirse o precisarse en sede judicial o administrativa para su efectiva determinación, cabe entender que no puede exigirse al "buscador" que supla la función de la autoridad competente ni menos aún la de los jueces.  Por tales razones, en estos casos corresponde exigir la notificación judicial o administrativa competente, no bastando la simple comunicación del particular que se considere perjudicado y menos la de cualquier persona interesada […]” (el destacado me pertenece).

 

Es importante señalar que la CSJN -con nueva integración- ratificó la doctrina judicial sentada en el precedente “Rodríguez Belén” en el marco de los casos “Gimbutas, Carolina Valeria c/ Google Inc. s/ Daños y perjuicios” (fallo dictado por la CSJN con fecha 12/09/2017) y “Mazza, Valeria Raquel c/ Yahoo S.R.L. Argentina s/ Daños y perjuicios” (fallo dictado por la CSJN con fecha 24/06/2021). 

 

En tal contexto, resulta indudable que en un caso como el del laboratorio Eli Lilly podría sostenerse que Twitter no actuó como un mero intermediario -es decir, con un rol meramente técnico, pasivo y neutral-, por lo que no podría alegar la inexistencia de una obligación general de monitorear y/o vigilar (arg. conf. fallo “Rodríguez Belén” antes citado). 

 

Por el contrario, estamos ante un supuesto de responsabilidad directa por el hecho propio, ya que como se sostuvo en un reciente fallo “[…] lo que se le reprocha es que no haya controlado lo que sí hubiera podido controlar, esto es, la realidad de los datos vinculados con la identidad de los pretensos contratantes[9].  En cuanto al factor de atribución -y más aún luego de los fallos dictados por la CSJN arriba aludidos- existe una marcada tendencia en la doctrina y jurisprudencia vinculada con temas de nuevas tecnologías, consistente en aplicar un factor de atribución subjetivo[10] [11].  

 

Siguiendo este criterio, Twitter debería acreditar la diligencia desplegada en el caso[12], lo que podría equipararse a lo que en EE.UU. se exige como “accountability”.  

 

Por otro lado, el tiempo de reacción por parte de la plataforma una vez notificada del evento dañoso también constituirá un parámetro a tener en cuenta para calibrar la gravedad y extensión de su responsabilidad.

 

En definitiva, en Argentina, la responsabilidad de una plataforma como Twitter respecto de los daños que puedan generarse a través de cuentas “verificadas” importaría una responsabilidad directa por hecho propio, la cual se fundaría, en principio, en los arts. 1716, 1724 y 1749 -y concordantes- del Código Civil y Comercial de la Nación[13]. También podría fundarse en la normativa de protección de datos personales, que impone la obligación de validar la identidad de los usuarios[14].