Cuando se le preguntó por qué robaba bancos, el ladrón de bancos estadounidense Willie Sutton supuestamente respondió: “Porque ahí es donde está el dinero”.
Esta es una perspectiva limitada, pero lógica.
El artículo continúa a continuación.
Director de tecnología de Tech Mahindra.
De hecho, están intentando crear una bóveda segura sin dinero dentro. ¿Una caja fuerte sin dinero? No le interesaría a Willy ni tampoco a los ejecutivos.
De hecho, es peor que eso: un modelo de lenguaje grande puede representar un riesgo importante para cualquier cosa que resida en su empresa si no está específicamente capacitado en los aspectos específicos de su industria.
Si no puede decirle lo que necesita saber (si no puede identificar violaciones del tratado de Basilea III por parte de un banco, desviaciones de CAPA en la fabricación farmacéutica o qué significa fuerza mayor en el contexto específico de un contrato de energía, dondequiera que sea), no le ayudará mucho.
Lo que las empresas necesitan es un modelo de lenguaje personalizado que proporcione un análisis detallado y preciso de las sensibilidades que deben tener en cuenta, no una descripción general simplista que podría estar equivocada. Los reguladores no querrán escuchar que su incumplimiento se debe a que su GPT responde a un asunto de misión crítica.
Modelo pequeño, grandes beneficios
Además de una precisión de tres a cinco veces mayor, centrar el modelo de lenguaje específico de su dominio y de su empresa en información especializada que Wiley aprobará tiene otros beneficios: le ahorra dinero; Y puede ejecutarlo en su entorno personal.
Los modelos de propósito general requieren una enorme potencia informática para contener conocimientos de todo, desde la poesía del siglo XVIII hasta la física cuántica. Un modelo de lenguaje pequeño (SLM) en el rango de mil millones a 13 mil millones de parámetros puede ser menos del 1 por ciento del tamaño de uno de los gigantes de la industria.
Este enfoque permite que las indicaciones consuman mucha menos energía y su modelo se puede implementar más fácilmente en las instalaciones o en la nube soberana.
Considere cómo se ve esto en la práctica:
Para una compañía de seguros, un SLM financiero capacitado en el lenguaje de suscripción y el vocabulario de riesgo de la empresa puede manejar el análisis de contratos de crédito de una manera que los modelos de lenguaje más grandes no pueden hacerlo de manera confiable.
Para un fabricante farmacéutico, se puede utilizar un SLM para identificar desviaciones de CAPA y anotar los riesgos de interacción de medicamentos en términos específicos para su presentación regulatoria.
Para un proveedor automotriz, su SLM puede estar capacitado para decodificar señales de mantenimiento predictivo y revisar anomalías en la cadena de suministro, luego comunicar esa información en lenguaje sencillo, no solo a los paneles de sus científicos de datos sino directamente al taller.
Bóveda sin culpa
Por supuesto, la seguridad sigue siendo una prioridad importante, incluso con un SLM altamente especializado.
Una vez que tenga el SLM que necesita, la seguridad se convierte en una prioridad importante. Ahora, sin embargo, la cuestión de la soberanía es menos importante que la arquitectura. Puede que su banco esté en Main Street, pero lo que lo mantiene a salvo del de Willie son las alarmas antirrobo, el grosor de las paredes de las bóvedas y la complejidad de las cerraduras, no la geografía.
Si hay algo que he aprendido en mis dos décadas en TI financiera, es que la seguridad debe integrarse en la arquitectura.
Independientemente de dónde residan sus datos, debe diseñar sus sistemas de modo que las fugas de IP y los datos de consulta no puedan ser interceptados por proveedores de API externos, vulnerables a ataques de inversión de modelos ni inyectados en canalizaciones de agentes.
Las cargas de trabajo sensibles de nivel uno requieren inferencias aisladas, privacidad diferencial en el proceso de capacitación (garantías matemáticas, no formularios de consentimiento) y pistas de auditoría firmadas criptográficamente para cada decisión de IA.
Quiere poder preguntarle a su equipo: si mañana nos robaran el peso de nuestro modelo, qué aprendería un adversario y la respuesta sería “no mucho”.
Garantizar la privacidad del cliente en la era de la IA favorece la misma estrategia. Enterprise AI tiene una versión de privacidad de datos prevista en documentos legales, y luego esa versión funciona.
Los controles a nivel de política no impiden la memorización del modelo de contenido privado durante el entrenamiento, la reidentificación durante la estimación o el registro de consultas por parte de proveedores de API de terceros.
Para proteger los datos en la práctica (no sólo en teoría), las empresas necesitan seguridad desde el diseño: aprendizaje federado, que entrena modelos a través de nodos distribuidos, donde los datos sin procesar nunca se mueven; privacidad diferencial, que proporciona garantías matemáticas contra la ingeniería inversa de registros individuales; y generación de datos sintéticos, que reemplaza los datos confidenciales de entrenamiento con indicadores estadísticamente equivalentes.
Por último, no hace falta decir que estar atento a los cambios regulatorios es más importante que nunca.
Por ahora, implementar estas medidas depende de su propio apetito por el riesgo, pero pronto, la Sección 10 de la Ley de IA de la UE, la Ley DPDP de la India y un creciente mosaico de leyes estatales de EE. UU. requerirán regulación técnica, no solo políticas. Para 2027, la “preservación de la privacidad por diseño” aparecerá como estándar en las RFP empresariales de IA.
va bien
Los modelos de lenguaje pequeño, diseñados correctamente y implementados de forma segura, superarán a sus competidores más grandes en todos los aspectos que más importan a las partes interesadas: eficiencia, previsibilidad y promesa de éxito.
Y esas son buenas noticias para su negocio, porque Willie Sutton se equivocó: cuidar de sus accionistas es donde realmente está el dinero.
Hemos presentado las mejores herramientas de IA.
Este artículo fue producido en parte Perspectiva profesional de TechRadarNuestro canal para mostrar las mejores y más brillantes mentes de la industria tecnológica actual.
Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: