RESUMEN
En el campo de la programación paralela, ha arri-bado un nuevo gran jugador en los últimos 10 años. Las GPU han tomado una importancia re-levante en la computación científica debido a que ofrecen alto rendimiento computacional, bajo costos y simplicidad de implementación; sin embargo, uno de los desafíos más grandes que poseen son los lenguajes utilizados para la progra-mación de los dispositivos.
El esfuerzo de reescri-bir algoritmos diseñados originalmente para CPU es uno de los mayores problemas. En este artículo se revisan tres frameworks de programación para la tecnología CUDA y se realiza una compara-ción con el reciente estándar OpenMP versión 4, resolviendo el método iterativo de Jacobi.
Palabras clave:
Método de Jacobi, OmpSS, Ope-nACC, OpenMP, Programación paralela.