<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:taxo="http://purl.org/rss/1.0/modules/taxonomy/" version="2.0">
  <channel>
    <title>question Re: How to run spark sql in parallel? in Archives of Support Questions (Read Only)</title>
    <link>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/47897#M43526</link>
    <description>&lt;P&gt;It will be of great help to me.&lt;BR /&gt;Thanks a lot Kamalakanta &lt;span class="lia-unicode-emoji" title=":slightly_smiling_face:"&gt;🙂&lt;/span&gt;&lt;/P&gt;
&lt;P&gt;&amp;nbsp;&lt;/P&gt;
&lt;P&gt;I have some more doubts regarding running spark SQL queries in parallel.&lt;/P&gt;</description>
    <pubDate>Mon, 28 Nov 2016 12:54:56 GMT</pubDate>
    <dc:creator>HadoopSiva</dc:creator>
    <dc:date>2016-11-28T12:54:56Z</dc:date>
    <item>
      <title>How to run spark sql in parallel?</title>
      <link>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/46289#M43520</link>
      <description>&lt;P&gt;We are doing spark programming in java language. The ‘DataFrame’ has been stored in temporary table and we are running multiple queries from this temporary table inside loop. The quires are running in sequential order. We need to run in parallel from temporary table. Please find code snippet below.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Thanks in advance for your cooperation.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;HiveContext hiveContext = &lt;STRONG&gt;new&lt;/STRONG&gt; HiveContext(sparkContext);&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; String mainQueryHql = &lt;EM&gt;getFileContent&lt;/EM&gt;(&lt;EM&gt;mainQueryFilePath&lt;/EM&gt;);&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DataFrame df = hiveContext.sql(mainQueryHql).persist(StorageLevel.&lt;EM&gt;MEMORY_AND_DISK_SER&lt;/EM&gt;());&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; df.show();&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; System.&lt;STRONG&gt;&lt;EM&gt;out&lt;/EM&gt;&lt;/STRONG&gt;.println("Total Records in Main Query " + df.count());&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; df.registerTempTable(&lt;EM&gt;tempTable&lt;/EM&gt;);&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; ArrayList&amp;lt;DataFrame&amp;gt; dataFrameList = &lt;STRONG&gt;&lt;U&gt;new&lt;/U&gt;&lt;/STRONG&gt;&lt;U&gt; ArrayList()&lt;/U&gt;;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DataFrame dfSubQuery = &lt;STRONG&gt;null&lt;/STRONG&gt;;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; String subQuires = &lt;EM&gt;getFileContent&lt;/EM&gt;(&lt;EM&gt;subQueryFilePath&lt;/EM&gt;);&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; String[] alQuires = subQuires.split(";");&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;STRONG&gt;for&lt;/STRONG&gt;(&lt;STRONG&gt;int&lt;/STRONG&gt; i=0; i&amp;lt;alQuires.length; i++) {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; System.&lt;STRONG&gt;&lt;EM&gt;out&lt;/EM&gt;&lt;/STRONG&gt;.println("Query no " + i +" is : " + alQuires[i]);&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;STRONG&gt;&lt;EM&gt;logger&lt;/EM&gt;&lt;/STRONG&gt;.debug("Query no " + i +" is : " + alQuires[i]);&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; dfSubQuery = hiveContext.sql(alQuires[i]);&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; dfSubQuery.show();&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; dataFrameList.add(dfSubQuery);&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; }&lt;/P&gt;</description>
      <pubDate>Fri, 16 Sep 2022 10:44:21 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/46289#M43520</guid>
      <dc:creator>Kamalakanta</dc:creator>
      <dc:date>2022-09-16T10:44:21Z</dc:date>
    </item>
    <item>
      <title>Re: How to run spark sql in parallel?</title>
      <link>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/46573#M43521</link>
      <description>&lt;P&gt;There is nothing native within Spark to handle running queries in parallel. &amp;nbsp;Instead you can take a look at Java concurrency and in particular Futures[1] which will allow you to start queries in parallel and check status later.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;1. &amp;nbsp;&lt;A href="https://docs.oracle.com/javase/7/docs/api/java/util/concurrent/Future.html" target="_blank"&gt;https://docs.oracle.com/javase/7/docs/api/java/util/concurrent/Future.html&lt;/A&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;</description>
      <pubDate>Sun, 23 Oct 2016 02:26:29 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/46573#M43521</guid>
      <dc:creator>hubbarja</dc:creator>
      <dc:date>2016-10-23T02:26:29Z</dc:date>
    </item>
    <item>
      <title>Re: How to run spark sql in parallel?</title>
      <link>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/46589#M43522</link>
      <description>Thanks Hubbarja, Will check and respond very shortly.&lt;BR /&gt;</description>
      <pubDate>Mon, 24 Oct 2016 10:10:27 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/46589#M43522</guid>
      <dc:creator>Kamalakanta</dc:creator>
      <dc:date>2016-10-24T10:10:27Z</dc:date>
    </item>
    <item>
      <title>Re: How to run spark sql in parallel?</title>
      <link>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/47841#M43523</link>
      <description>&lt;P&gt;Hi Kamalakanta,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;I am also in need of a solution for this problem.&lt;/P&gt;&lt;P&gt;Have you checked with Java Concurrency and Futures ? or else do u got any other solution?&lt;/P&gt;&lt;P&gt;Please share the solution.&lt;/P&gt;&lt;P&gt;I am also in need of executing the sparksql in parallel(similar to your program).&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Thanks in advance&lt;/P&gt;</description>
      <pubDate>Tue, 22 Nov 2016 18:25:09 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/47841#M43523</guid>
      <dc:creator>HadoopSiva</dc:creator>
      <dc:date>2016-11-22T18:25:09Z</dc:date>
    </item>
    <item>
      <title>Re: How to run spark sql in parallel?</title>
      <link>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/47888#M43524</link>
      <description>&lt;P&gt;Please use Future interface in your code. Request to explorebelow mentioned object or interfaces.&lt;/P&gt;&lt;P&gt;java.util.concurrent.ExecutionException;&lt;BR /&gt;java.util.concurrent.ExecutorService;&lt;BR /&gt;java.util.concurrent.Executors;&lt;BR /&gt;java.util.concurrent.Future;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;You can get more information from below mentioned URLs.&lt;/P&gt;&lt;P&gt;&lt;A href="https://docs.oracle.com/javase/7/docs/api/java/util/concurrent/Future.html" target="_blank"&gt;https://docs.oracle.com/javase/7/docs/api/java/util/concurrent/Future.html&lt;/A&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;</description>
      <pubDate>Wed, 23 Nov 2016 11:01:09 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/47888#M43524</guid>
      <dc:creator>Kamalakanta</dc:creator>
      <dc:date>2016-11-23T11:01:09Z</dc:date>
    </item>
    <item>
      <title>Re: How to run spark sql in parallel?</title>
      <link>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/47889#M43525</link>
      <description>&lt;P&gt;One more helpfull link&lt;/P&gt;&lt;P&gt;&lt;A href="http://stackoverflow.com/questions/28712420/how-to-run-concurrent-jobsactions-in-apache-spark-using-single-spark-context" target="_blank"&gt;http://stackoverflow.com/questions/28712420/how-to-run-concurrent-jobsactions-in-apache-spark-using-single-spark-context&lt;/A&gt;&lt;/P&gt;</description>
      <pubDate>Wed, 23 Nov 2016 11:04:46 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/47889#M43525</guid>
      <dc:creator>Kamalakanta</dc:creator>
      <dc:date>2016-11-23T11:04:46Z</dc:date>
    </item>
    <item>
      <title>Re: How to run spark sql in parallel?</title>
      <link>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/47897#M43526</link>
      <description>&lt;P&gt;It will be of great help to me.&lt;BR /&gt;Thanks a lot Kamalakanta &lt;span class="lia-unicode-emoji" title=":slightly_smiling_face:"&gt;🙂&lt;/span&gt;&lt;/P&gt;
&lt;P&gt;&amp;nbsp;&lt;/P&gt;
&lt;P&gt;I have some more doubts regarding running spark SQL queries in parallel.&lt;/P&gt;</description>
      <pubDate>Mon, 28 Nov 2016 12:54:56 GMT</pubDate>
      <guid>https://community.cloudera.com/t5/Archives-of-Support-Questions/How-to-run-spark-sql-in-parallel/m-p/47897#M43526</guid>
      <dc:creator>HadoopSiva</dc:creator>
      <dc:date>2016-11-28T12:54:56Z</dc:date>
    </item>
  </channel>
</rss>

