Guía completa de análisis de equipos para redes y seguridad

Última actualización: enero 24, 2026
Autor: Isaac
  • El análisis de equipos para redes combina monitorización de tráfico, auditoría de infraestructura y verificación de protocolos para garantizar estabilidad y seguridad.
  • Existen analizadores de red software y hardware, junto con comandos y herramientas avanzadas, que permiten diagnosticar errores, optimizar el rendimiento y descubrir dispositivos.
  • Wireshark es la herramienta de referencia para capturar y estudiar paquetes, clave tanto en administración de sistemas como en ciberseguridad defensiva y ofensiva.
  • Una estrategia de análisis de red bien diseñada reduce tiempos de inactividad, previene brechas de seguridad y mejora la continuidad del negocio.

Análisis de equipos para redes

Analizar a fondo qué ocurre dentro de una red se ha vuelto una tarea crítica para cualquier organización, desde una pequeña pyme hasta una gran planta industrial. No se trata solo de “que haya internet”, sino de entender qué dispositivos se conectan, cómo fluye el tráfico, qué protocolos se utilizan y, sobre todo, detectar errores y amenazas antes de que provoquen una caída o una brecha de seguridad.

Cuando hablamos de análisis de equipos para redes entran en juego muchas piezas: cámaras IP, switches, routers, sondas, software de monitorización (por ejemplo, configurar equipos UniFi en la nube), protocolos de descubrimiento, herramientas de diagnóstico y, por supuesto, analizadores de tráfico como Wireshark. En este artículo vamos a hacer un recorrido muy completo, con un enfoque práctico y cercano, por todo lo que necesitas para controlar de verdad lo que pasa en tus redes, tanto corporativas como industriales.

Qué es el análisis de equipos para redes y por qué es tan importante

El análisis de equipos para redes engloba todas las tareas orientadas a observar, medir y comprender el tráfico que intercambian los dispositivos conectados. Incluye desde la monitorización de ancho de banda y el estado de los enlaces, hasta el estudio detallado de los paquetes que circulan por la infraestructura.

En redes corporativas, este análisis debe contemplar de forma especial la salida a internet, porque suele ser el punto con más carga de tráfico y el más delicado de gestionar. En redes industriales, el reto está en la enorme variedad de protocolos especializados (Modbus, DNP3 y muchos otros), que exigen herramientas capaces de interpretar tramas muy específicas.

La monitorización continua resulta clave para detectar errores de configuración, fallos de hardware o tráfico inesperado que pueda indicar una intrusión, fugas de datos o simplemente una aplicación mal diseñada consumiendo más ancho de banda de la cuenta (por ejemplo, campañas de phishing en Microsoft Teams que generan tráfico anómalo). Un buen análisis te permite ver si los paquetes están bien formados, si las sesiones se establecen correctamente y si el comportamiento general de la red es el previsto.

Además, el análisis de red se ha convertido en una pieza fundamental de la seguridad (ver nuestra guía completa de ciberseguridad). Un analizador siempre activo actúa como un auténtico perro guardián: vigila 24/7 lo que ocurre, lanza alertas en tiempo real ante anomalías, ayuda a detectar intrusos, supervisa el uso de recursos y, en caso de incidente, sirve como herramienta forense para reconstruir lo sucedido y localizar al atacante.

Monitorización y análisis de tráfico de red

Tipos de analizadores de red: hardware y software

Las herramientas para analizar redes pueden ser de dos grandes tipos: soluciones software y dispositivos hardware dedicados. Cada grupo tiene ventajas, limitaciones y escenarios de uso claramente diferenciados.

Los analizadores de red basados en software suelen ser genéricos y se centran en protocolos ampliamente extendidos y documentados. Normalmente hablamos de herramientas gratuitas o de bajo coste (como Wireshark, TCPDump o Windump) que permiten monitorizar, capturar y analizar paquetes, identificar orígenes y destinos, ver qué protocolos circulan y revisar capturas guardadas para su posterior estudio.

Por otro lado, los analizadores hardware están diseñados para entornos muy concretos y protocolos específicos. Son habituales en sistemas industriales o infraestructuras críticas donde se emplean tecnologías propietarias poco documentadas. Suelen ser soluciones de pago, y su precio viene determinado por los protocolos y medios físicos que soportan (Ethernet, RS-232, RS-485, fibra, etc.). Ejemplos conocidos en este ámbito son Achilles, Netdecoder o equipos de marcas como Line Eye.

Una diferencia importante es que los analizadores hardware suelen ofrecer funciones avanzadas más allá de la mera monitorización: capacidades de fuzzer para poner a prueba la robustez de las implementaciones de los protocolos, osciloscopios integrados, analizadores de señal para medir voltajes y frecuencias, y otras utilidades pensadas para validación y homologación de sistemas.

Mientras tanto, las soluciones software tienen la gran ventaja de poder trabajar cómodamente con capturas realizadas previamente, almacenarlas para auditorías futuras y compartirlas entre equipos. En cambio, muchos equipos hardware están más limitados al análisis en tiempo real.

Cómo funcionan los analizadores de red en la práctica

Para que un analizador software pueda ver el tráfico, es necesario redirigir hacia él los paquetes que queremos estudiar. Esto se puede hacer de varias maneras, según la topología y el equipamiento disponible en la red.

Una primera opción clásica es usar un hub o concentrador. Se conecta el hub en el segmento de red a analizar y, en uno de sus puertos libres, el equipo con el analizador. Al ser un dispositivo que replica el tráfico a todos los puertos, el analizador puede “escuchar” las comunicaciones. El gran inconveniente es que la capacidad de tráfico que se puede manejar es limitada y los hubs están prácticamente en desuso en entornos modernos.

La alternativa más utilizada hoy en día es configurar un puerto espejo (port mirroring) en un switch. El conmutador copia todo el tráfico que atraviesa uno o varios puertos (o incluso VLANs) hacia un puerto específico, donde se conecta el analizador. Así, el software puede monitorizar el flujo completo sin interferir directamente en la comunicación. Eso sí, hay que tener en cuenta que si el volumen de tráfico es muy alto, el puerto espejo podría saturarse y perder algunos paquetes, lo que implica que la visión no será totalmente completa.

En el caso de analizadores de tipo hardware, se suele recurrir a dispositivos específicos denominados Network Taps. Estos taps se insertan físicamente en el enlace y están diseñados para copiar el tráfico de forma pasiva hacia la herramienta de análisis. Son capaces de trabajar con diferentes medios (cobre, fibra, serie…) y suelen comunicarse con el software de análisis mediante USB u otras interfaces. Su gran ventaja es que ofrecen una captura muy fiable, con un impacto mínimo en el enlace original.

Relacionado:  Solución BOOTBCD Error en Windows 10: Tutorial 2018

Además, los equipos hardware orientados a sistemas de control industrial no solo observan el tráfico, sino que también pueden generar e inyectar paquetes modificados para verificar cómo responde el sistema. Esto permite comprobar si la implementación de un protocolo se ajusta a la especificación y, sobre todo, si presenta fallos que puedan derivar en vulnerabilidades.

Analizadores de red en sistemas de control industrial

En los entornos de automatización y control, el análisis de red tiene particularidades muy marcadas. Aquí se emplean protocolos que no son de uso masivo ni están siempre abiertos al público, lo que hace que herramientas genéricas como Wireshark no siempre sean suficientes sin plugins o módulos específicos.

Por ese motivo, las organizaciones que gestionan sistemas SCADA, PLCs y redes industriales recurren a analizadores hardware especializados. Estos dispositivos están preparados para entender protocolos como Modbus, DNP3 y otros desarrollados por fabricantes concretos de equipos industriales, permitiendo interpretar correctamente los campos y comandos que circulan por la red.

El objetivo principal no es únicamente capturar tramas, sino comprobar de forma exhaustiva la implementación de las especificaciones. Los analizadores comprueban si los dispositivos se comportan como deben ante peticiones válidas e inválidas, si gestionan bien los errores y si son capaces de soportar condiciones extremas sin quedar en un estado inestable.

Para ello, estas herramientas generan gran cantidad de tráfico, a menudo inválido o malformado, con la finalidad de “estresar” el protocolo. Es una práctica necesaria para garantizar la robustez, pero implica un riesgo: si se hace en el entorno de producción, casi con total seguridad se inducirán fallos serios o incluso paradas completas de procesos industriales.

Por eso, las pruebas de validación y fuzzing de protocolos industriales deben realizarse siempre en entornos de laboratorio o en ventanas controladas de mantenimiento. El análisis pasivo de tráfico (solo observando lo que pasa) no suele afectar al sistema, más allá del tiempo requerido para instalar físicamente los equipos; pero la inserción masiva de paquetes de prueba sí puede obligar a reinicios y cortes de servicio.

Análisis y auditoría de la red de una empresa

Más allá de la parte puramente técnica del tráfico, un buen análisis de red también implica auditar toda la infraestructura IT de la organización. El objetivo es detectar puntos débiles, elementos obsoletos, errores de diseño y brechas de seguridad que puedan afectar a la continuidad del negocio.

Una auditoría completa comienza con la revisión de todos los elementos de hardware: servidores, firewalls, routers, switches, puntos de acceso Wi‑Fi, paneles de parcheo, cableado estructurado, SAIs y dispositivos finales. Esta foto global permite saber qué hay realmente en la red, qué versión de firmware usa cada elemento y qué estado físico presenta.

Un punto crítico es la sala de servidores y comunicaciones, el corazón de la red. Aquí conviene revisar la temperatura ambiente, la limpieza y el polvo acumulado, la organización de los cables en los racks, el estado físico de conectores y paneles, así como la accesibilidad y seguridad física del recinto.

También es fundamental evaluar la conexión a internet y al proveedor. Hay que comprobar si el router principal ofrece control de ancho de banda, si los puertos son Gigabit Ethernet, si el cableado es de la categoría adecuada (5e, 6 o superior) y si la línea contratada es estable y suficientemente rápida. Un router antiguo o mal configurado puede ser cuello de botella para toda la empresa.

En cuanto a los switches, hay que asegurarse de que no están limitando la velocidad de la red. Aún es frecuente encontrarse con conmutadores antiguos que solo soportan 100 Mbps, frenando segmentos completos donde ya se dispone de cableado y tarjetas Gigabit. En estos casos, renovar el switch tiene un impacto inmediato en el rendimiento general.

Elementos clave de la infraestructura: Wi‑Fi, cableado, SAI y servidores

Los puntos de acceso (AP) Wi‑Fi son responsables de distribuir la conectividad inalámbrica por toda la empresa. Deben estar ubicados estratégicamente para cubrir todas las zonas de trabajo, salas de reuniones y áreas comunes, evitando sombras de cobertura y solapamientos excesivos en los canales.

Además de la cobertura, es importante revisar la configuración de seguridad del Wi‑Fi: tipo de cifrado, control de acceso por VLANs, segmentación de redes de invitados y autenticación. Un punto de acceso mal configurado puede convertirse en una puerta de entrada directa a la red interna.

En cuanto al cableado, la categoría de los cables (5e, 6, 6A, etc.) debe ser adecuada a la velocidad y al entorno. Un cable antiguo o de mala calidad puede provocar errores de transmisión, pérdidas y reducción de la velocidad máxima. También conviene revisar el estado de las rosetas y conectores RJ45, ya que un simple conector dañado puede generar problemas intermitentes muy difíciles de diagnosticar.

No hay que olvidar el SAI (Sistema de Alimentación Ininterrumpida). Su función es proporcionar energía temporal en caso de corte eléctrico para que se puedan apagar servidores de forma ordenada y realizar copias de seguridad críticas. Sin un SAI apropiado, un apagón repentino puede derivar en corrupción de datos y daños en hardware.

Respecto a los servidores, es esencial garantizar buena ubicación física, refrigeración adecuada, conexión Gigabit y protección mediante SAI. También debe existir una política clara de copias de seguridad, recuperación ante desastres y, en la medida de lo posible, sistemas alternativos de acceso a internet para seguir operando aunque el enlace principal falle.

Descubrimiento y monitorización: SNMP, LLDP, ARP y otras técnicas

Para mapear y vigilar la red de forma automática se utilizan diferentes protocolos y técnicas de descubrimiento, que permiten a las plataformas de gestión obtener información detallada de cada dispositivo sin tener que configurarlos uno a uno.

El protocolo más extendido es SNMP (Simple Network Management Protocol). La mayoría de dispositivos de red (routers, switches, impresoras, firewalls, etc.) lo soportan. Los agentes SNMP instalados en estos equipos almacenan información en forma de identificadores de objeto (OID), organizados en bases de información de gestión (MIB). A través de consultas SNMP, una consola de administración puede recopilar datos como uso de CPU, memoria, tráfico por puerto, niveles de tinta en impresoras o estadísticas de reenvío en routers.

Relacionado:  Modificar fecha y hora en MacBook: Tutorial

Otro componente importante es LLDP (Link Layer Discovery Protocol), un protocolo de capa 2 neutral respecto al fabricante que permite a los dispositivos informar a sus vecinos directos de su identidad (tipo de equipo, identificador, puerto, etc.). Esta información se almacena igualmente en MIB y se aprovecha para construir automáticamente la topología de red, saltando de dispositivo en dispositivo hasta cubrir todo el mapa.

Para simplemente comprobar si un host está accesible, el clásico Ping (ICMP Echo) sigue siendo una de las herramientas más usadas. En el contexto de descubrimiento, permite identificar qué direcciones IP responden en una red y, por tanto, qué dispositivos están activos, aunque no aporten tantos detalles como SNMP o LLDP.

Asimismo, el protocolo ARP (Address Resolution Protocol) vincula direcciones IP con direcciones MAC. Consultando las cachés ARP de los routers y switches mediante SNMP, el software de gestión puede reconstruir su propia base de datos de enrutamiento, obtener información de subred y conocer qué interfaces enlazan con cada vecino, completando así la vista de capa 2 y 3.

Herramientas y comandos para diagnóstico de problemas de red

Cuando algo falla en la red, los administradores recurren a una serie de comandos clásicos que, aunque sencillos, siguen siendo tremendamente eficaces para acotar el problema y descubrir su origen.

El primero de la lista es ping. Sirve para comprobar si un host responde y cuál es la latencia entre origen y destino. Envía peticiones de eco ICMP y recibe respuestas con el tiempo de ida y vuelta, mostrando también estadísticas de pérdida de paquetes. Un simple ping www.facebook.com ya aporta pistas sobre conectividad y rendimiento.

Para saber qué camino siguen los paquetes, se utilizan tracert (en Windows) o traceroute (en Linux y otros sistemas). Estos comandos muestran cada router intermedio entre origen y destino, junto con los tiempos parciales. De esta forma se puede ver en qué salto se corta la comunicación o dónde se introduce una latencia excesiva, mediante órdenes como tracert www.wikipedia.com.

Combinando lo mejor de ambos mundos está pathping, una herramienta de Microsoft disponible en sistemas Windows que envía paquetes tanto al destino final como a cada salto intermedio, informando de la latencia y la pérdida de paquetes en cada uno. Con parámetros como pathping -h 20 o pathping -w 200 se pueden ajustar los límites de saltos o los tiempos de espera.

Para inspeccionar la configuración IP local se recurre a ipconfig (Windows) o ifconfig (Linux y otros Unix). Estos comandos muestran la dirección IP asignada, la máscara de subred, la puerta de enlace por defecto y otros datos básicos de cada adaptador de red, ayudando a detectar conflictos de direcciones, errores en la máscara o gateways mal definidos.

Si el problema está relacionado con nombres de dominio, nslookup es la herramienta de referencia. Permite consultar registros DNS para comprobar qué IP hay detrás de un dominio, qué servidor está respondiendo o qué registros adicionales (correo, número de serie, etc.) se han configurado.

Cuando se necesita una foto del estado general de las conexiones, netstat resulta imprescindible. Muestra conexiones TCP abiertas, puertos en escucha, tablas de enrutamiento y estadísticas de protocolos, lo que ayuda a detectar servicios inesperados, conexiones sospechosas o saturaciones.

Por último, el comando route permite visualizar y modificar la tabla de enrutamiento del sistema. En muchos Linux es necesario instalar primero el paquete net-tools, pero una vez disponible, se pueden añadir o eliminar rutas, decidir qué interfaz usar para ciertas redes y depurar problemas de encaminamiento.

Herramientas avanzadas de diagnóstico y monitorización

Además de los comandos de consola, existen soluciones más completas y potentes para diagnosticar y vigilar redes complejas, tanto on‑premise como en la nube o en entornos híbridos.

Por un lado encontramos plataformas de monitorización como Uptrends Uptime Monitor, que controlan de forma continua sitios web, servidores y dispositivos de red. Pueden enviar alertas cuando detectan caídas o problemas de rendimiento, mostrando desde qué localizaciones se produce el fallo y ayudando a distinguir si el origen está en la infraestructura propia o en una zona geográfica concreta.

Otra solución muy utilizada es el monitoreo del rendimiento de red de Datadog, orientado a visualizar componentes y tráfico en entornos muy distribuidos. Permite correlacionar métricas entre aplicaciones, contenedores, zonas de disponibilidad y centros de datos, facilitando la detección rápida de cuellos de botella o fallos en microservicios.

Para la supervisión integral de servicios TI, Nagios es uno de los clásicos en sistemas Linux y Unix. Está diseñado para vigilar continuamente conmutadores, servidores, bases de datos, aplicaciones y servicios críticos, enviando alertas cuando algo no responde, se dispara la carga o se rompe un umbral definido.

Por otro lado, Nmap (Network Mapper) destaca como herramienta de descubrimiento y escaneo de puertos. Es gratuita, de código abierto y está disponible en múltiples plataformas. Sirve para identificar qué hosts hay en una red, qué servicios exponen y qué sistemas operativos y versiones utilizan, lo que resulta especialmente útil tanto para administración como para ciberseguridad.

En el ámbito Wi‑Fi, soluciones como WiFi Explorer para macOS permiten escanear y analizar redes inalámbricas, identificando problemas de configuración, canales saturados, solapamientos de señal y otros factores que afectan a la calidad de la conexión. Muestran datos como dirección MAC, fabricante, intensidad de señal, ruido y canal utilizado.

Wireshark: la herramienta estrella para análisis de tráfico

Entre todas las herramientas de análisis de red, Wireshark se ha convertido en el estándar de facto para capturar y estudiar paquetes. Nacido originalmente como Ethereal en 1998, ha evolucionado hasta consolidarse como el referente mundial en análisis de protocolos.

Wireshark permite observar el tráfico en tiempo real, filtrar por criterios muy específicos y analizar conversaciones completas entre dispositivos. Desglosa cada paquete según las capas del modelo OSI, mostrando encabezados, direcciones IP, puertos, flags TCP, campos de protocolos de aplicación y, cuando no está cifrado, incluso el contenido.

Relacionado:  Solucion completa mfc110u dll no se encuentra en su computadora

La herramienta es multiplataforma (Linux, macOS, Windows y otros sistemas Unix) y soporta cientos de protocolos distintos, desde los más comunes (Ethernet, IP, TCP, UDP, HTTP, TLS…) hasta muchos más específicos. Existe además una versión de línea de comandos sin interfaz gráfica llamada TShark para entornos donde no se dispone de GUI.

Wireshark para análisis de tráfico, diagnóstico y optimización

El uso más habitual de Wireshark es el análisis detallado del tráfico que circula dentro de una infraestructura. La herramienta captura cada paquete que pasa por la interfaz configurada y lo representa de forma legible, con una vista jerárquica que facilita entender qué está ocurriendo en cada capa.

Esta visibilidad permite supervisar servicios críticos, comprobar el estado de sesiones TCP, medir latencias entre nodos e identificar qué sistemas consumen más ancho de banda. A través de filtros avanzados, el analista puede centrarse solo en el tráfico relevante (por IP, protocolo, puerto, contenido, etc.), reduciendo el ruido y acelerando la toma de decisiones.

En diagnóstico de problemas, Wireshark ayuda a localizar errores de configuración, pérdidas de paquetes, retransmisiones excesivas o caídas de sesiones. Por ejemplo, si un dispositivo no obtiene dirección IP por DHCP, una captura revelará si el servidor responde o si hay colisiones de ofertas. Lo mismo ocurre con resoluciones DNS fallidas o con enlaces que introducen demasiada latencia.

También es una herramienta muy potente para detectar saturaciones de red y cuellos de botella. Analizando las capturas se puede ver si una aplicación concreta monopoliza el ancho de banda, si hay mucho tráfico de retransmisión por problemas físicos en el cableado o si determinados protocolos están generando más carga de la esperada.

Desde el punto de vista de optimización, Wireshark permite comprobar que los protocolos se utilizan de la forma más eficiente posible: handshake TLS sin retrasos, conexiones persistentes bien gestionadas, ausencia de reenvíos innecesarios en streaming, tiempos de respuesta aceptables, etc. Con estos datos es posible ajustar parámetros de QoS, tamaños de ventana, tiempos de espera y otros aspectos finos de la configuración.

Wireshark y ciberseguridad: defensiva y ofensiva

En el terreno de la ciberseguridad, Wireshark es una herramienta de doble filo tremendamente valiosa. Se utiliza tanto en labores defensivas (Blue Team) como ofensivas o de pentesting (Red Team), y su capacidad para desvelar el tráfico en detalle la hace indispensable.

Desde la perspectiva defensiva, Wireshark permite identificar tráfico malicioso, conexiones sospechosas y protocolos inseguros (como la alerta por un paquete npm malicioso). Por ejemplo, se puede comprobar si credenciales o datos sensibles viajan en texto claro, si un equipo infectado se comunica con dominios o IP poco fiables, o si se producen escaneos y conexiones extrañas en puertos no habituales.

En análisis forense, resulta clave para reconstruir lo que ha sucedido en un incidente de seguridad. A partir de capturas previas (o de un span de red que permanezca siempre activo) se puede seguir el rastro del atacante, ver qué comandos lanzó, qué datos extrajo y cómo se movió lateralmente dentro de la red.

En el ámbito del hacking ético, Wireshark se usa para reconocimiento y exploración de redes sin necesidad de generar tráfico intrusivo. En redes abiertas o mal cifradas, la herramienta puede exponer credenciales, cookies de sesión y otra información muy sensible, demostrando de manera contundente el riesgo de no cifrar correctamente.

Los profesionales de pentesting lo emplean también para verificar el efecto de sus payloads, comprobar si una escalada de privilegios ha generado el tráfico esperado o evaluar si la exfiltración de datos está ocurriendo según lo planificado. Es, en esencia, una lupa que muestra en tiempo real el impacto de las acciones ofensivas.

Conviene recordar que Wireshark es un proyecto de código abierto bajo licencia GNU GPL y completamente gratuito. Alrededor de la herramienta existen, eso sí, servicios de valor añadido como formación oficial, soporte especializado o consultoría, especialmente interesantes para empresas que quieren sacarle todo el partido en entornos complejos.

Importancia estratégica del análisis de red para el negocio

En un contexto de transformación digital acelerada, las redes informáticas se han convertido en la columna vertebral de casi cualquier negocio. Prácticamente todas las operaciones dependen de que la red funcione bien: aplicaciones en la nube, comunicaciones internas, comercio electrónico, acceso remoto, IoT, etc.

Los estudios muestran que los tiempos de inactividad, aunque sean cortos, pueden tener un coste económico enorme, tanto por pérdidas directas como por impacto en la satisfacción de los clientes o pérdida de datos. De ahí que las empresas estén invirtiendo cada vez más en herramientas de análisis, detección de amenazas en red (NTA) y soluciones de detección y respuesta (TDR).

Para que todo esto tenga sentido, es imprescindible establecer procesos claros de resolución de problemas. Normalmente se parte de identificar y delimitar el incidente (qué afecta, a quién y cómo), comunicarlo a las partes implicadas, buscar la causa raíz, probar soluciones en entornos controlados y desplegarlas de forma gradual en producción.

Una vez resuelto el problema, documentar todo el proceso y aplicar medidas preventivas es clave para que la misma situación no se repita. Aquí el análisis de red y las herramientas de diagnóstico aportan datos objetivos que permiten aprender de cada incidente.

En la práctica, contar con buenos equipos y herramientas de análisis de red marca la diferencia entre ir siempre apagando fuegos o tener una red realmente bajo control. Desde un simple ping hasta capturas avanzadas con Wireshark o sistemas de monitorización centralizada, todo suma para mejorar la fiabilidad, el rendimiento y la seguridad de la infraestructura.

Una estrategia sólida de análisis de equipos para redes combina auditorías periódicas de la infraestructura física, monitorización constante del tráfico, uso inteligente de herramientas de diagnóstico y un enfoque serio de ciberseguridad; con ese conjunto bien engranado, las organizaciones pueden detectar fallos antes de que se conviertan en desastres, responder rápido ante cualquier incidente y garantizar que sus sistemas sigan funcionando incluso en los momentos más críticos.

artículos de ciberseguridad
Artículo relacionado:
Artículos de ciberseguridad: guía completa para empresas y usuarios