Cancel a query
'stv_recents'テーブルから実行中のquery(status='Running')を検索してkillしたいqueryのpidを取得し、cancelコマンドをpid指定して実行すればOKです。
select pid, trim(user_name), starttime, substring(query,1,20) from stv_recents where status='Running';
cancel [pid];
select pid, trim(user_name), starttime, substring(query,1,20) from stv_recents where status='Running';
cancel [pid];
4つcoreがある場合は上記のような形で表示されます。$ mpstat -P ALL 10時19分43秒 CPU %usr %nice %sys %iowait %irq %soft %steal %guest %idle 10時19分43秒 all 8.73 0.01 1.20 0.19 0.00 0.10 0.04 0.00 89.74 10時19分43秒 0 17.30 0.00 2.28 0.44 0.00 0.32 0.06 0.00 79.60 10時19分43秒 1 7.72 0.01 1.02 0.12 0.00 0.04 0.04 0.00 91.06 10時19分43秒 2 5.24 0.01 0.80 0.11 0.00 0.02 0.03 0.00 93.79 10時19分43秒 3 4.69 0.01 0.70 0.09 0.00 0.01 0.04 0.00 94.46
$ mpstat -P ALL 1
要するに/** A default Hadoop Configuration for the Hadoop code (e.g. file systems) that we reuse. */ val hadoopConfiguration = { val env = SparkEnv.get val conf = SparkHadoopUtil.get.newConfiguration() // Explicitly check for S3 environment variables if (System.getenv("AWS_ACCESS_KEY_ID") != null && System.getenv("AWS_SECRET_ACCESS_KEY") != null) { conf.set("fs.s3.awsAccessKeyId", System.getenv("AWS_ACCESS_KEY_ID")) conf.set("fs.s3n.awsAccessKeyId", System.getenv("AWS_ACCESS_KEY_ID")) conf.set("fs.s3.awsSecretAccessKey", System.getenv("AWS_SECRET_ACCESS_KEY")) conf.set("fs.s3n.awsSecretAccessKey", System.getenv("AWS_SECRET_ACCESS_KEY")) } // Copy any "spark.hadoop.foo=bar" system properties into conf as "foo=bar" Utils.getSystemProperties.foreach { case (key, value) => if (key.startsWith("spark.hadoop.")) { conf.set(key.substring("spark.hadoop.".length), value) } } val bufferSize = System.getProperty("spark.buffer.size", "65536") conf.set("io.file.buffer.size", bufferSize) conf }
$ export AWS_ACCESS_KEY_ID=xxxxxx $ export AWS_SECRET_ACCESS_KEY=xxxxxx $ ./spark-shell (snip..) scala> val data = sc.textFile("s3n://(bucket)/(path)) scala> data.count() res0: Long = 1607157
ただし上記を実行すると、コンパイル時にエラーになります。./sbt/sbt clean SPARK_HADOOP_VERSION=2.0.0-cdh4.5.0 SPARK_YARN=true ./sbt/sbt assembly
というimport文があるのですが、このうち「AMResponse」インターフェースが存在しないため、コンパイルエラーになります。import org.apache.hadoop.yarn.api.records.{AMResponse, ApplicationAttemptId}
上記の例では、バイナリ形式でheapのダンプ情報を出力します。jmap -dump:format=b,file=[file name] [pid]
引数のファイルには、上述のjmapで出力したダンプファイルを指定します。jhat [file name]
結果は以下jmap -histo [pid] > [file name]
jmap -histo:live [pid] > [file name]