Definición de Tarjeta de Video (Gráfica)
Periodista esp. e investigador
Las computadoras se componen de diversos elementos: microprocesador, memoria RAM, disco duro, unidad de DVD,… y la tarjeta gráfica, el cual es un elemento que nos permite generar las imágenes que después son presentadas en el monitor (un periférico).
La tarjeta gráfica es la parte del sistema de vídeo que está dentro de la computadora
La tarjeta gráfica o tarjeta de vídeo es una pieza que se encuentra en todas las computadoras y que es la encargada de procesar las informaciones en formato de datos digitales que deben dar lugar a las imágenes, y posteriormente convertirlas a un formato comprensible para los monitores.
La salida de estas imágenes generadas se hace a través de los puertos de vídeo a través de cables especiales hasta uno o varios monitores. Si bien los puertos de vídeo acostumbran a formar parte de la tarjeta gráfica, los demás elementos no, siendo considerado el monitor como un periférico, es decir, un elemento externo a los componentes de la computadora propiamente dicha.
La tarjeta gráfica ha evolucionado
Fruto de la tecnología existente en la época, las primeras computadoras PC compatibles presentaban unas capacidades gráficas muy limitadas, que prácticamente solo eran utilizadas para los videojuegos y un conjunto de utilidades muy limitada.
Era una época en la que los entornos gráficos de usuario no estaban “bien vistos” como herramienta productiva, no eran considerados “serios”, solamente para el mercado doméstico en las computadoras de ocho bits. Y entonces llegó Apple y lo cambió todo.
Los entornos gráficos con su número de efectos, transiciones y funcionalidades no fue la principal razón por la cual las tarjetas gráficas evolucionaron, pero sí uno de sus motores al principio. Más tarde, los videojuegos y la multimedia tomaron el papel de tractor en la evolución de las tarjetas gráficas.
Auténticas computadoras dentro de computadoras
Las exigencias cada vez más altas de las aplicaciones que hacían un uso intensivo del apartado gráfico de las computadoras y, en especial, de los videojuegos, llevaron a que estas cada vez ofrecieran mayor potencia y, como consecuencia, chips más complejos que actualmente tienen poco a envidiar a los microprocesadores de ordenador convencionales.
Empezó a popularizarse entre los usuarios el término GPU, una abreviatura correspondiente a la denominación Graphics Process Unit (Unidad de Procesamiento Gráfico), y que denomina al microchip que realiza el principal trabajo de la tarjeta gráfica.
De hecho, lo que comentaba antes de la potencia de las GPUs se materializa en el hecho de que existen técnicas de programación que permiten utilizar estos chips con un propósito general, como si fueran CPUs y equipando, incluso, a supercomputadoras.
La potencia de las GPUs las ha llevado a ser utilizadas incluso en supercomputación
NVIDIA es una de las dos empresas líderes en el terreno de las GPUs, que ha lanzado su propia línea de estos chips y su correspondiente hardware para acometer tareas relacionadas con la supercomputación.
La otra fabricante de referencia es AMD, tras la adquisición de ATI hace ya varios años. Si NVIDIA es conocida por su serie de GPUs GeForce, AMD/ATI lo es por su serie Radeon.
Las creaciones de ambos fabricantes son luego integradas por los productores de tarjetas gráficas, que rodean a la GPU del hardware adecuado para un funcionamiento óptimo, dejándola a punto para su integración en un PC nuevo o bien para su puesta a la venta para que cualquiera que quiera actualizar su antigua máquina.
Fotos: iStock – pagadesign / alengo
Trabajo publicado en: Jun., 2016.
Escriba un comentario
Contribuya con su comentario para sumar valor, corregir o debatir el tema.Privacidad: a) sus datos no se compartirán con nadie; b) su email no será publicado; c) para evitar malos usos, todos los mensajes son moderados.