Crear aplicaciones para Apache Spark 1.2.0 con IntelliJ IDEA CE 14

febrero 09, 2015

 

Hoy vamos a ver como crear un proyecto preparado para Apache Spark 1.2.0 para IntelliJ CE 14.

Requisitos
· Scala 2.10.x (en mi caso 2.10.3)
· SBT 13.x
· IntelliJ CE 14
· Unix (en mi caso utilizo MacOSX Yosemite)

Pasos
1. Creamos un proyecto nuevo "Scala" en IntelliJ
2. Cerramos el proyecto
3. Nos dirigimos a la ráiz de la carpeta de nuestro proyecto y ejecutamos los siguientes comandos:

mkdir -p src/main/scala
mkdir -p src/test/scala
mkdir project
echo "addSbtPlugin("com.github.mpeltonen" % "sbt-idea" % "1.6.0")" > project/plugins.sbt
echo 'name := "Nuestro nombre del proyecto"
version := "1.0"
scalaVersion := "2.10.3"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.2.0"' > build.sbt
sbt update
sbt gen-idea
4. Volvemos a abrir el proyecto en IntelliJ CE 14 y listo, podemos empezar a programar para Apache #Spark 1.2.0

Si os surge alguna duda del proceso, comentadme e intentamos resolverlo juntos.

Nos vemos.

You Might Also Like

0 comentarios

Sé respetuoso/a, en este blog caben todo tipo de opiniones con respeto y serenidad.

Contact Form :: (」゜ロ゜)」