Съдържание:

Кои са важните конфигурационни файлове, които трябва да бъдат актуализирани, редактирани, за да се настрои напълно разпределен режим на Hadoop клъстер?
Кои са важните конфигурационни файлове, които трябва да бъдат актуализирани, редактирани, за да се настрои напълно разпределен режим на Hadoop клъстер?

Видео: Кои са важните конфигурационни файлове, които трябва да бъдат актуализирани, редактирани, за да се настрои напълно разпределен режим на Hadoop клъстер?

Видео: Кои са важните конфигурационни файлове, които трябва да бъдат актуализирани, редактирани, за да се настрои напълно разпределен режим на Hadoop клъстер?
Видео: Екипаж (драма, филм за катастрофа, реж. Александър Мита, 1979) 2024, Ноември
Anonim

Конфигурационните файлове, които трябва да бъдат актуализирани, за да се настрои напълно разпространен режим на Hadoop, са:

  • Hadoop-env.sh.
  • Основен сайт. xml.
  • HDfs-сайт. xml.
  • Мапред-сайт. xml.
  • майстори.
  • Роби.

Освен това, кои са важните конфигурационни файлове в Hadoop?

Конфигурацията на Hadoop се управлява от два типа важни конфигурационни файлове:

  • Конфигурация по подразбиране само за четене - src/core/core-default. xml, src/hdfs/hdfs по подразбиране. xml и src/mapred/mapred-default. xml.
  • Конфигурация, специфична за сайта - conf/core-site. xml, conf/hdfs-сайт. xml и conf/mapred-site. xml.

По подобен начин кое от следните съдържа конфигурация за HDFS демони? xml съдържа конфигурация настройки на HDFS демони (т.е. NameNode, DataNode, Secondary NameNode). Той също така включва коефициента на репликация и размера на блока на HDFS.

какво представляват конфигурационните файлове в Hadoop?

Конфигурационни файлове са файлове които се намират в извлечения катран. gz файл в др/ hadoop / директория. всичко Конфигурационни файлове в Hadoop са изброени по-долу, 1) HADOOP -ENV.sh->>Той определя променливите на средата, които влияят на JDK, използван от Hadoop Демон (bin/ hadoop ).

Кои файлове се занимават с проблеми с малки файлове в Hadoop?

1) HAR ( Hadoop Архив) Файлове е въведено в справяне с проблем с малък файл . HAR въведе слой отгоре HDFS , които предоставят интерфейс за файл достъп. Използвайки Hadoop команда за архивиране, HAR файлове са създадени, които изпълняват a MapReduce работа да опаковам файлове се архивира в по-малък брой HDFS файлове.

Препоръчано: