• <small id='HIExz'></small><noframes id='HIExz'>

    1. <i id='HIExz'><tr id='HIExz'><dt id='HIExz'><q id='HIExz'><span id='HIExz'><b id='HIExz'><form id='HIExz'><ins id='HIExz'></ins><ul id='HIExz'></ul><sub id='HIExz'></sub></form><legend id='HIExz'></legend><bdo id='HIExz'><pre id='HIExz'><center id='HIExz'></center></pre></bdo></b><th id='HIExz'></th></span></q></dt></tr></i><div id='HIExz'><tfoot id='HIExz'></tfoot><dl id='HIExz'><fieldset id='HIExz'></fieldset></dl></div>

      <tfoot id='HIExz'></tfoot>

    2. <legend id='HIExz'><style id='HIExz'><dir id='HIExz'><q id='HIExz'></q></dir></style></legend>
        <bdo id='HIExz'></bdo><ul id='HIExz'></ul>

        如何以 csv 格式输出 hadoop 结果

        时间:2023-09-26
            • <bdo id='iYkfc'></bdo><ul id='iYkfc'></ul>
            • <small id='iYkfc'></small><noframes id='iYkfc'>

              1. <tfoot id='iYkfc'></tfoot>

                <i id='iYkfc'><tr id='iYkfc'><dt id='iYkfc'><q id='iYkfc'><span id='iYkfc'><b id='iYkfc'><form id='iYkfc'><ins id='iYkfc'></ins><ul id='iYkfc'></ul><sub id='iYkfc'></sub></form><legend id='iYkfc'></legend><bdo id='iYkfc'><pre id='iYkfc'><center id='iYkfc'></center></pre></bdo></b><th id='iYkfc'></th></span></q></dt></tr></i><div id='iYkfc'><tfoot id='iYkfc'></tfoot><dl id='iYkfc'><fieldset id='iYkfc'></fieldset></dl></div>
                    <tbody id='iYkfc'></tbody>

                  <legend id='iYkfc'><style id='iYkfc'><dir id='iYkfc'><q id='iYkfc'></q></dir></style></legend>
                  本文介绍了如何以 csv 格式输出 hadoop 结果的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

                  问题描述

                  我需要以 .csv 格式输出我的 hadoop 结果.我将如何做到这一点?我的代码:https://github.com/studhadoop/xml/blob/master/XmlParser11.java

                  I need to output my hadoop result in .csv format. how will i do this? My code :https://github.com/studhadoop/xml/blob/master/XmlParser11.java

                  我是否应该在我的代码中简单地包含 csvoutputFormat.我正在使用 mapreduce API

                  should i simply include csvoutputFormat in my code. I am using mapreduce API

                  我的工作.sh

                  bin/hadoop jar /var/root/ALA/ala_jar/clsperformance.jar ala.clsperf.ClsPerf /user/root/ala_xmlrpt/Amrita Vidyalayam, Karwar_Class 1 B_ENG.xml  /user/root/ala_xmlrpt-outputshell4
                  
                  bin/hadoop fs -get /user/root/ala_xmlrpt-outputshell4/part-r-00000 /Users/jobsubmit
                  
                  
                  cat /Users/jobsubmit/part-r-00000 /Users/jobsubmit/output.csv
                  

                  解决方案

                  是我失踪了>在猫

                  cat /Users/jobsubmit/part-r-00000> /Users/jobsubmit/output.csv
                  

                  推荐答案

                  可以使用TextOutputFormat.默认的键/值分隔符是制表符.您可以通过在驱动程序中设置属性mapred.textoutputformat.separatorText"来更改分隔符.

                  You can use TextOutputFormat. The default key/ value separator is a tab character. You can change the separator by setting the property "mapred.textoutputformat.separatorText" in your driver.

                  conf.set("mapred.textoutputformat.separatorText", ",");
                  

                  这篇关于如何以 csv 格式输出 hadoop 结果的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持html5模板网!

                  上一篇:登录 MapReduce 作业的标准做法 下一篇:Hadoop 中的流式处理或自定义 Jar

                  相关文章

                  最新文章

                  <tfoot id='TvTLQ'></tfoot>

                    <legend id='TvTLQ'><style id='TvTLQ'><dir id='TvTLQ'><q id='TvTLQ'></q></dir></style></legend>

                    <small id='TvTLQ'></small><noframes id='TvTLQ'>

                      <i id='TvTLQ'><tr id='TvTLQ'><dt id='TvTLQ'><q id='TvTLQ'><span id='TvTLQ'><b id='TvTLQ'><form id='TvTLQ'><ins id='TvTLQ'></ins><ul id='TvTLQ'></ul><sub id='TvTLQ'></sub></form><legend id='TvTLQ'></legend><bdo id='TvTLQ'><pre id='TvTLQ'><center id='TvTLQ'></center></pre></bdo></b><th id='TvTLQ'></th></span></q></dt></tr></i><div id='TvTLQ'><tfoot id='TvTLQ'></tfoot><dl id='TvTLQ'><fieldset id='TvTLQ'></fieldset></dl></div>
                        <bdo id='TvTLQ'></bdo><ul id='TvTLQ'></ul>