Creciendo como inmigrante, Cyril Gorlla se enseñó a codificar por sí mismo, practicando como si estuviera poseído.
«Aprobé el curso de programación en la universidad comunitaria de mi madre a los 11 años, en medio de los servicios públicos domésticos desconectados periódicamente», le dijo a TechCrunch.
En la escuela secundaria, Gorlla aprendió sobre IA y se obsesionó con la idea de entrenar sus propios modelos de IA, al punto de desarmar su computadora portátil para actualizar el enfriamiento interno. Esta experimentación lo llevó a una pasantía en Intel durante su segundo año en la universidad, donde investigó la optimización e interpretabilidad de modelos de IA.
Los años universitarios de Gorlla coincidieron con el auge de la IA, que ha visto a empresas como OpenAI recaudar miles de millones de dólares para su tecnología de IA. Gorlla creía que la IA tenía el potencial de transformar industrias enteras. Pero también pensaba que el trabajo de seguridad estaba pasando a un segundo plano en comparación con los nuevos productos relucientes.
«Sentí que necesitaba haber un cambio fundamental en cómo entendemos y entrenamos a la IA», dijo. «La falta de certeza y confianza en la salida de los modelos es una barrera significativa para la adopción en industrias como la salud y las finanzas, donde la IA puede marcar la mayor diferencia».
Así que, junto con Trevor Tuttle, a quien conoció como estudiante universitario, Gorlla abandonó su programa de posgrado para comenzar una empresa, CTGT, para ayudar a las organizaciones a implementar la IA de manera más reflexiva. CTGT hizo su presentación hoy en el TechCrunch Disrupt 2024 como parte de la competencia Startup Battlefield.
«Mis padres creen que estoy en la escuela», dijo. «Leer esto podría ser un shock para ellos».
CTGT trabaja con empresas para identificar salidas sesgadas y alucinaciones de modelos, y trata de abordar la causa raíz de estos problemas.
Es imposible eliminar por completo errores de un modelo. Pero Gorlla afirma que el enfoque de auditoría de CTGT puede capacitar a las empresas para mitigarlos.
«Exponemos la comprensión interna de los conceptos de un modelo», explicó. «Mientras que un modelo que le dice a un usuario que ponga pegamento en una receta podría ser humorístico, una respuesta que recomienda a competidores cuando un cliente solicita una comparación de productos no es tan trivial. Es inaceptable que le den a un paciente información de un estudio clínico anticuado, o que se tome una decisión crediticia en base a información alucinada».
Una reciente encuesta de Cnvrg encontró que la confiabilidad era una de las principales preocupaciones compartidas por las empresas que adoptan aplicaciones de IA. En un estudio separado de Riskonnect, un proveedor de software de gestión de riesgos, más de la mitad de los ejecutivos dijeron que estaban preocupados por empleados tomando decisiones basadas en información inexacta de herramientas de IA.

La idea de una plataforma dedicada para evaluar la toma de decisiones de un modelo de IA no es nueva. TruEra y Patronus AI son algunas de las startups que desarrollan herramientas para interpretar el comportamiento del modelo, al igual que Google y Microsoft.
Pero Gorlla afirma que las técnicas de CTGT son más efectivas, en parte porque no se basan en entrenar un juez de IA para monitorear modelos en producción.
«Nuestra interpretabilidad matemáticamente garantizada difiere de los métodos actuales de vanguardia, que son ineficientes y entrenan cientos de otros modelos para obtener información sobre un modelo», dijo. «A medida que las empresas son cada vez más conscientes de los costos de computación y la IA empresarial pasa de demostraciones a proporcionar un valor real, nuestro valor es significativo al proporcionar a las empresas la capacidad de probar rigurosamente la seguridad de la IA avanzada sin entrenar modelos adicionales o usar otros modelos como jueces».
Para calmar los temores de posibles clientes sobre filtraciones de datos, CTGT ofrece una opción local además de un plan gestionado. Cobra la misma tarifa anual por ambos.
«No tenemos acceso a los datos de los clientes, lo que les da control completo sobre cómo y dónde se utilizan», dijo Gorlla.
CTGT, una empresa graduada del acelerador Character Labs, cuenta con el respaldo de los ex socios de GV Jake Knapp y John Zeratsky (que cofundaron Character VC), Mark Cuban y el cofundador de Zapier, Mike Knoop.
«Una IA que no puede explicar su razonamiento no es lo suficientemente inteligente para muchas áreas donde aplican reglas y requisitos complejos», dijo Cuban en un comunicado. «Invertí en CTGT porque está resolviendo este problema. Más importante aún, estamos viendo resultados en nuestro propio uso de la IA».
Y, a pesar de estar en una etapa inicial, CTGT tiene varios clientes, incluidas tres marcas Fortune 10 sin nombre. Gorlla dice que CTGT trabajó con una de estas empresas para minimizar el sesgo en su algoritmo de reconocimiento facial.
«Identificamos un sesgo en el modelo al enfocarse demasiado en el cabello y la ropa para hacer sus predicciones», dijo. «Nuestra plataforma proporcionó a los profesionales información inmediata sin el trabajo adivinatorio y el tiempo perdido de los métodos de interpretabilidad tradicionales».
El enfoque de CTGT en los próximos meses estará en ampliar su equipo de ingeniería (actualmente solo están Gorlla y Tuttle) y perfeccionar su plataforma.
Si CTGT logra obtener una posición en el creciente mercado de la interpretabilidad de la IA, podría ser muy lucrativo. La firma de análisis Markets and Markets proyecta que la «IA explicativa» como sector podría valer $16.2 mil millones para 2028.
«El tamaño del modelo está superando con creces la Ley de Moore y los avances en chips de entrenamiento de IA», dijo Gorlla. «Esto significa que debemos enfocarnos en la comprensión fundamental de la IA, para lidiar tanto con la ineficiencia como con la naturaleza cada vez más compleja de las decisiones de los modelos».
