Different computer ==> Segmentation Faults

Questions regarding the compilation of VASP on various platforms: hardware, compilers and libraries, etc.


Moderators: Global Moderator, Moderator

Locked
Message
Author
skodavasp
Newbie
Newbie
Posts: 2
Joined: Tue May 25, 2010 7:25 pm

Different computer ==> Segmentation Faults

#1 Post by skodavasp » Tue May 25, 2010 7:53 pm

Dear all.

I have successuflly installed vasp.4.6.28 on a x86_64 GNU/Linux cluster, and it works.

I'm trying to install it on a x86_64 GNU/Linux 4-cores COMPUTER.
It compiles correctly,
The makeparam works fine,
BUT
the vasp executable always stops at the first electronic iteration saying "Segmentation Fault".

I've been trying to look into the OUTCAR in order to check where is the error, but couldn't find it.

The same error comes both for the parallel and serial version of vasp.

Any advice would be appreciated.
Thank you

-----------------------------------------------------------------------
Here is my Makefile (serial version):

Code: Select all

 
.SUFFIXES: .inc .f .f90 .F
#-----------------------------------------------------------------------
# Makefile for Portland Group F90/HPF compiler release 3.0-1, 3.1
# and release 1.7
# (http://www.pgroup.com/ & ftp://ftp.pgroup.com/x86/, you need
#  to order the HPF/F90 suite)
#  we have found no noticable performance differences between 
#  any of the releases, even Athlon or PIII optimisation does
#  not seem to improve performance
#
# The makefile was tested only under Linux on Intel platforms
# (Suse X,X)
#
# it might be required to change some of library pathes, since
# LINUX installation vary a lot
# Hence check ***ALL**** options in this makefile very carefully
#-----------------------------------------------------------------------
#
# Mind that some Linux distributions (Suse 6.1) have a bug in 
# libm causing small errors in the error-function (total energy
# is therefore wrong by about 1meV/atom). The recommended
# solution is to update libc.
#
# Mind that some Linux distributions (Suse 6.1) have a bug in
# libm causing small errors in the error-function (total energy
# is therefore wrong by about 1meV/atom). The recommended
# solution is to update libc.
#
# BLAS must be installed on the machine
# there are several options:
# 1) very slow but works:
#   retrieve the lapackage from ftp.netlib.org
#   and compile the blas routines (BLAS/SRC directory)
#   please use g77 or f77 for the compilation. When I tried to
#   use pgf77 or pgf90 for BLAS, VASP hang up when calling
#   ZHEEV  (however this was with lapack 1.1 now I use lapack 2.0)
# 2) most desirable: get an optimized BLAS
#   for a list of optimized BLAS try
#     http://www.kachinatech.com/~hjjou/scilib/opt_blas.html
#
# the two most reliable packages around are presently:
# 3a) Intels own optimised BLAS (PIII, P4, Itanium)
#     http://developer.intel.com/software/products/mkl/
#   this is really excellent when you use Intel CPU's
#
# 3b) or obtain the atlas based BLAS routines
#     http://math-atlas.sourceforge.net/
#   you certainly need atlas on the Athlon, since the  mkl
#   routines are not optimal on the Athlon.
#
#-----------------------------------------------------------------------

# all CPP processed fortran files have the extension .f 
SUFFIX=.f

#-----------------------------------------------------------------------
# fortran compiler and linker
#-----------------------------------------------------------------------
FC=pgf90 
# fortran linker
FCL=$(FC)


#-----------------------------------------------------------------------
# whereis CPP ?? (I need CPP, can't use gcc with proper options)
# that's the location of gcc for SUSE 5.3
#
#  CPP_   =  /usr/lib/gcc-lib/i486-linux/2.7.2/cpp -P -C 
#
# that's probably the right line for some Red Hat distribution:
#
#  CPP_   =  /usr/lib/gcc-lib/i386-redhat-linux/2.7.2.3/cpp -P -C
#
#  SUSE 6.X, maybe some Red Hat distributions:
CPP_ =  ./preprocess <$*.F | /usr/bin/cpp -P -C -traditional >$*$(SUFFIX)

#-----------------------------------------------------------------------
# possible options for CPP:
# possible options for CPP:
# NGXhalf             charge density   reduced in X direction
# wNGXhalf            gamma point only reduced in X direction
# avoidalloc          avoid ALLOCATE if possible
# IFC                 work around some IFC bugs
# CACHE_SIZE          1000 for PII,PIII, 5000 for Athlon, 8000 P4
# RPROMU_DGEMV        use DGEMV instead of DGEMM in RPRO (usually  faster)
# RACCMU_DGEMV        use DGEMV instead of DGEMM in RACC (faster on P4)
#  **** definitely use -DRACCMU_DGEMV if you use the mkl library
#-----------------------------------------------------------------------

CPP    = $(CPP_) -DHOST=\"LinuxPgi\" \
          -Dkind8 -DNGXhalf -DCACHE_SIZE=2000 -DPGF90 -Davoidalloc \
          -DRPROMU_DGEMV

#-----------------------------------------------------------------------
# general fortran flags  (there must a trailing blank on this line)
# the -Mx,119,0x200000 is required if you use older pgf90 versions
# on a more recent LINUX installation
# the option will not do any harm on other 3.X pgf90 distributions
#-----------------------------------------------------------------------

FFLAGS =  -Mfree -Mx,119,0x200000
#FFLAGS = 

#-----------------------------------------------------------------------
# optimization,
# we have tested whether higher optimisation improves
# the performance, and found no improvements with -O3-5 or -fast
# (even on Athlon system, Athlon specific optimistation worsens performance)
#-----------------------------------------------------------------------

OFLAG  = -O2  -tp k8-64 

OFLAG_HIGH = $(OFLAG)
OBJ_HIGH =
OBJ_NOOPT =
DEBUG  = -g -O0
INLINE = $(OFLAG)


#-----------------------------------------------------------------------
# the following lines specify the position of BLAS  and LAPACK
# what you chose is very system dependent
# P4: VASP works fastest with Intels mkl performance library
# Athlon: Atlas based BLAS are presently the fastest
# P3: no clue
#-----------------------------------------------------------------------

# Atlas based libraries

ATLASHOME= /usr/local/atlas/lib 

BLAS= -L$(ATLASHOME) -lf77blas -latlas -lcblas #-lf77refblas  


                        #-----------------------------------------------------------------------------------

# LAPACK, simplest use vasp.4.lib/lapack_double
#LAPACK= ../vasp.4.lib/lapack_double.o

# use atlas optimized part of lapack
#LAPACK= ../vasp.4.lib/lapack_atlas.o  -llapack -lcblas   

#LAPACK= ../vasp.4.lib/lapack_atlas.o  -llapack    

#LAPACK= ../vasp.4.lib/lapack_atlas.o  -llapack  -lcblas 
LAPACK= ../vasp.4.lib/lapack_atlas.o  \
        -L/home/ATLAS3.9.24/ATLAS3.9.24/ATLAS_Linux_3.9.24/lib -llapack  \
        -L/home/ATLAS3.9.24/ATLAS3.9.24/ATLAS_Linux_3.9.24/lib -lcblas  

#LAPACK= /home/ATLAS-varie/ATLAS3.9.24/interfaces  -llapack    

# use the mkl Intel lapack
#LAPACK= -lmkl_lapack


#-----------------------------------------------------------------------

LIB  = -L../vasp.4.lib -ldmy \
     ../vasp.4.lib/linpack_double.o $(LAPACK) \
     $(BLAS)

# options for linking (none required)
LINK    =

#-----------------------------------------------------------------------
# fft libraries:
# VASP.4.5 can use FFTW (http://www.fftw.org)
# since the FFTW is very slow for radices 2^n the fft3dlib is used
# in these cases
# if you use fftw3d you need to insert -lfftw in the LIB line as well
# please do not send us any querries reltated to FFTW (no support)
# if it fails, use fft3dlib
#-----------------------------------------------------------------------

FFT3D   = fft3dfurth.o fft3dlib.o
#FFT3D   = fftw3d+furth.o fft3dlib.o

#=======================================================================
#=======================================================================

# # parte sopra = compilazione seriale
# # parte sotto = compilazione parallela : se si scommenta sovrascrive

#=======================================================================

# MPI section, uncomment the following lines
# 
# one comment for users of mpich or lam:
# You must *not* compile mpi with g77/f77, because f77/g77             
# appends *two* underscores to symbols that contain already an        
# underscore (i.e. MPI_SEND becomes mpi_send__).  The pgf90
# compiler however appends only one underscore.
# Precompiled mpi version will also not work !!!
#
# We found that mpich.1.2.1 and lam-6.5.X are stable
# mpich.1.2.1 was configured with 
#  ./configure -prefix=/usr/local/mpich_nodvdbg -fc="pgf77 -Mx,119,0x200000"  \
# -f90="pgf90 -Mx,119,0x200000" \
# --without-romio --without-mpe -opt=-O \
# 
# lam was configured with the line
#  ./configure  -prefix /usr/local/lam-6.5.X --with-cflags=-O -with-fc=pgf90 \
# --with-f77flags=-O --without-romio
# 
# lam was generally faster and we found an average communication
# band with of roughly 160 MBit/s (full duplex)
#
# please note that you might be able to use a lam or mpich version 
# compiled with f77/g77, but then you need to add the following
# options: -Msecond_underscore (compilation) and -g77libs (linking)
#
# !!! Please do not send me any queries on how to install MPI, I will
# certainly not answer them !!!!
#=======================================================================
#-----------------------------------------------------------------------
# fortran linker for mpi: if you use LAM and compiled it with the options
# suggested above,  you can use the following lines
#-----------------------------------------------------------------------


#FC=mpif77 #original


#FC = mpif90  
#FCL=$(FC)


#-----------------------------------------------------------------------
# additional options for CPP in parallel version (see also above):
# NGZhalf               charge density   reduced in Z direction
# wNGZhalf              gamma point only reduced in Z direction
# scaLAPACK             use scaLAPACK (usually slower on 100 Mbit Net)
#-----------------------------------------------------------------------

#CPP    = $(CPP_) -DMPI  -DHOST=\"LinuxPgi\" \
     -Dkind8 -DNGZhalf -DCACHE_SIZE=8000 -DPGF90 -Davoidalloc -DRPROMU_DGEMV
    

#-----------------------------------------------------------------------
# location of SCALAPACK
# if you do not use SCALAPACK simply uncomment the line SCA
#-----------------------------------------------------------------------

BLACS=/usr/local/BLACS_lam

SCA_= /usr/local/SCALAPACK_lam #original

SCA= $(SCA_)/scalapack_LINUX.a $(SCA_)/pblas_LINUX.a $(SCA_)/tools_LINUX.a \
 $(BLACS)/LIB/blacsF77init_MPI-LINUX-0.a $(BLACS)/LIB/blacs_MPI-LINUX-0.a $(BLACS)/LIB/blacsF77init_MPI-LINUX-0.a

SCA=

#-----------------------------------------------------------------------
# libraries for mpi
#-----------------------------------------------------------------------

#LIB     = -L../vasp.4.lib -ldmy  \
#      ../vasp.4.lib/linpack_double.o $(LAPACK) \
#      $(SCA) $(BLAS)

# FFT: only option  fftmpi.o with fft3dlib of Juergen Furthmueller

#FFT3D   = fftmpi.o fftmpi_map.o fft3dlib.o 

#-----------------------------------------------------------------------
# general rules and compile lines
#-----------------------------------------------------------------------
BASIC=   symmetry.o symlib.o   lattlib.o  random.o

SOURCE=  base.o     mpi.o      smart_allocate.o      xml.o  \
         constant.o jacobi.o   main_mpi.o  scala.o   \
         asa.o      lattice.o  poscar.o   ini.o      setex.o     radial.o  \
         pseudo.o   mgrid.o    mkpoints.o wave.o      wave_mpi.o  $(BASIC) \
         nonl.o     nonlr.o    dfast.o    choleski2.o    \
         mix.o      charge.o   xcgrad.o   xcspin.o    potex1.o   potex2.o  \
         metagga.o  constrmag.o pot.o      cl_shift.o force.o    dos.o      elf.o      \
         tet.o      hamil.o    steep.o    \
         chain.o    dyna.o     relativistic.o LDApU.o sphpro.o  paw.o   us.o \
         ebs.o      wavpre.o   wavpre_noio.o broyden.o \
         dynbr.o    rmm-diis.o reader.o   writer.o   tutor.o xml_writer.o \
         brent.o    stufak.o   fileio.o   opergrid.o stepver.o  \
         dipol.o    xclib.o    chgloc.o   subrot.o   optreal.o   davidson.o \
         edtest.o   electron.o shm.o      pardens.o  paircorrection.o \
         optics.o   constr_cell_relax.o   stm.o    finite_diff.o \
         elpol.o    setlocalpp.o

INC=

vasp: $(SOURCE) $(FFT3D) $(INC) main.o
        rm -f vasp
        $(FCL) -o vasp $(LINK) main.o  $(SOURCE)   $(FFT3D) $(LIB) 
makeparam: $(SOURCE) $(FFT3D) makeparam.o main.F $(INC)
        $(FCL) -o makeparam  $(LINK) makeparam.o $(SOURCE) $(FFT3D) $(LIB)
zgemmtest: zgemmtest.o base.o random.o $(INC)
        $(FCL) -o zgemmtest $(LINK) zgemmtest.o random.o base.o $(LIB)
dgemmtest: dgemmtest.o base.o random.o $(INC)
        $(FCL) -o dgemmtest $(LINK) dgemmtest.o random.o base.o $(LIB) 
ffttest: base.o smart_allocate.o mpi.o mgrid.o random.o ffttest.o $(FFT3D) $(INC)
        $(FCL) -o ffttest $(LINK) ffttest.o mpi.o mgrid.o random.o smart_allocate.o base.o $(FFT3D) $(LIB)
kpoints: $(SOURCE) $(FFT3D) makekpoints.o main.F $(INC)
        $(FCL) -o kpoints $(LINK) makekpoints.o $(SOURCE) $(FFT3D) $(LIB)

clean:  
        -rm -f *.g *.f *.o *.L *.mod ; touch *.F

main.o: main$(SUFFIX)
        $(FC) $(FFLAGS)$(DEBUG)  $(INCS) -tp k8-64 -c main$(SUFFIX)
        #$(FC) $(FFLAGS)$(DEBUG)  $(INCS) -tp k8-64 -i8 -c main$(SUFFIX)
xcgrad.o: xcgrad$(SUFFIX)
        $(FC) $(FFLAGS) $(INLINE)  $(INCS) -c xcgrad$(SUFFIX)
xcspin.o: xcspin$(SUFFIX)
        $(FC) $(FFLAGS) $(INLINE)  $(INCS) -c xcspin$(SUFFIX)

makeparam.o: makeparam$(SUFFIX)
        $(FC) $(FFLAGS)$(DEBUG)  $(INCS) -c makeparam$(SUFFIX)

makeparam$(SUFFIX): makeparam.F main.F
#
# MIND: I do not have a full dependency list for the include
# and MODULES: here are only the minimal basic dependencies
# if one strucuture is changed then touch_dep must be called
# with the corresponding name of the structure
#
base.o: base.inc base.F
mgrid.o: mgrid.inc mgrid.F
constant.o: constant.inc constant.F
lattice.o: lattice.inc lattice.F
setex.o: setexm.inc setex.F
pseudo.o: pseudo.inc pseudo.F
poscar.o: poscar.inc poscar.F
mkpoints.o: mkpoints.inc mkpoints.F
wave.o: wave.inc wave.F
nonl.o: nonl.inc nonl.F
nonlr.o: nonlr.inc nonlr.F

$(OBJ_HIGH):
        $(CPP)
        $(FC) $(FFLAGS) $(OFLAG_HIGH) $(INCS) -c $*$(SUFFIX)
$(OBJ_NOOPT):
        $(CPP)
        $(FC) $(FFLAGS) $(INCS) -c $*$(SUFFIX)

fft3dlib_f77.o: fft3dlib_f77.F
        $(CPP)
        $(F77) $(FFLAGS_F77) -c $*$(SUFFIX)

.F.o:
        $(CPP)
        $(FC) $(FFLAGS) $(OFLAG) $(INCS) -c $*$(SUFFIX)
.F$(SUFFIX):
        $(CPP)
$(SUFFIX).o:
        $(FC) $(FFLAGS) $(OFLAG) $(INCS) -c $*$(SUFFIX)


#-----------------------------------------------------------------------
# these special rules are cummulative (that is once failed
#   in one compiler version, stays in the list forever)
# -tpp5|6|7 P, PII-PIII, PIV
# -xW use SIMD (does not pay of on PII, since fft3d uses double prec)
# all other options do no affect the code performance since -O1 is used
#-----------------------------------------------------------------------

xcgrad.o : xcgrad.F
        $(CPP)
        $(FC) -Mfreeform -lowercase -O1 -tp k8-64 -c $*$(SUFFIX)
        #$(FC) -Mfreeform -lowercase -O1 -tp k8-64 -i8 -c $*$(SUFFIX)


BELOW IS the std output:

Code: Select all

 vasp.4.6.28 25Jul05 complex 
 POSCAR found :  1 types and    2 ions

 ----------------------------------------------------------------------------- 
|                                                                             |
|  ADVICE TO THIS USER RUNNING 'VASP/VAMP'   (HEAR YOUR MASTER'S VOICE ...):  |
|                                                                             |
|      You have a (more or less) 'small supercell' and for smaller cells      |
|      it is recommended  to use the reciprocal-space projection scheme!      |
|      The real space optimization is not  efficient for small cells and it   |
|      is also less accurate ...                                              |
|      Therefore set LREAL=.FALSE. in the  INCAR file                         |
|                                                                             |
 ----------------------------------------------------------------------------- 

 LDA part: xc-table for Ceperly-Alder, standard interpolation
 POSCAR, INCAR and KPOINTS ok, starting setup
 FFT: planning ...            1
 reading WAVECAR
 entering main loop
       N       E                     dE             d eps       ncg     rms          rms(c)
Segmentation fault





-------------------
Below is OUTCAR

Code: Select all

 vasp.4.6.28 25Jul05 complex
 executed on             LinuxPgi date 2010.05.25  13:12:29
 serial version


--------------------------------------------------------------------------------------------------------


 INCAR:
 POTCAR:    US Ge
 POTCAR:    US Ge
   VRHFIN =Ge: s2p2
   LEXCH  = CA
   EATOM  =   180.9206 eV,   13.2973 Ry
   GGA    =    -3.0766   -3.3469     .1682   -2.4846 eV

   TITEL  = US Ge
   LULTRA =        T    use ultrasoft PP ?
   IUNSCR =        1    unscreen: 0-lin 1-nonlin 2-no
   RPACOR =    1.650    partial core radius
   POMASS =   72.610; ZVAL   =    4.000    mass and valenz
   RCORE  =    2.580    outmost cutoff radius
   RWIGS  =    2.580; RWIGS  =    1.365    wigner-seitz radius (au A)
   ENMAX  =  139.215; ENMIN  =  104.411 eV
   EAUG   =  220.446

   ICORE  =        3    local potential
   LCOR   =        T    correct aug charges
   RMAX   =    3.908    core radius for proj-oper
   QCUT   =   -3.199; QGAM   =    6.398    optimization parameters

   Description
     l     E      TYP  RCUT    TYP  RCUT
     0   .000     15  2.310    23  2.580
     0   .000     15  2.310    23  2.580
     1   .000     15  2.310    23  2.580
     1   .000     15  2.310    23  2.580
     2   .000      7  2.580     7  2.580
     3  -.100      7  2.580     7  2.580
  local pseudopotential read in
  partial core-charges read in
  atomic valenz-charges read in
  non local Contribution for L=            0  read in
    real space projection operators read in
  non local Contribution for L=            0  read in
    real space projection operators read in
  non local Contribution for L=            1  read in
    real space projection operators read in
  non local Contribution for L=            1  read in
    real space projection operators read in
  non local Contribution for L=            2  read in
    real space projection operators read in
    augmentation charges read in

   number of l-projection  operators is LMAX  =            5
   number of lm-projection operators is LMMAX =           13


 -----------------------------------------------------------------------------
|                                                                             |
|  ADVICE TO THIS USER RUNNING 'VASP/VAMP'   (HEAR YOUR MASTER'S VOICE ...):  |
|                                                                             |
|      You have a (more or less) 'small supercell' and for smaller cells      |
|      it is recommended  to use the reciprocal-space projection scheme!      |
|      The real space optimization is not  efficient for small cells and it   |
|      is also less accurate ...                                              |
|      Therefore set LREAL=.FALSE. in the  INCAR file                         |
|                                                                             |
 -----------------------------------------------------------------------------

 Optimization of the real space projectors (new method)

 maximal supplied QI-value         = 14.55
 optimisation between [QCUT,QGAM] = [  5.97, 12.08] = [  9.97, 40.84] Ry
 Optimized for a Real-space Cutoff    2.41 Angstroem

   l    n(q)    QCUT    max X(q) W(low)/X(q) W(high)/X(q)  e(spline)
   0      9     5.966     5.525    0.66E-05    0.42E-04    0.16E-06
   0      9     5.966     5.360    0.89E-04    0.65E-04    0.25E-06
   1      8     5.966     2.222    0.17E-03    0.32E-03    0.36E-06
   1      8     5.966     2.142    0.20E-03    0.29E-03    0.23E-06
   2      8     5.966     2.151    0.10E-03    0.30E-03    0.44E-06
  US Ge                                 :
 energy of atom  1       EATOM= -180.9206
 kinetic energy error for atom=    0.0073 (will be added to EATOM!!)

 EXHCAR: internal setup
 exchange correlation table for  LEXCH =        2
   RHO(1)=    0.500       N(1)  =     2000
   RHO(2)=  100.500       N(2)  =     4000

 POSCAR:  title                                  
  positions in direct lattice
  velocities in cartesian coordinates
  No initial velocities read in



--------------------------------------------------------------------------------------------------------


 ion  position               nearest neighbor table
   1  0.000  0.000  0.000-   2 2.81   2 2.81
   2  0.000  0.500  0.000-   1 2.81   1 2.81

  LATTYP: Found a simple cubic cell.
 ALAT       =     5.6275500000

  Lattice vectors:

 A1 = (   5.6275500000,   0.0000000000,   0.0000000000)
 A2 = (   0.0000000000,   5.6275500000,   0.0000000000)
 A3 = (   0.0000000000,   0.0000000000,   5.6275500000)
 Subroutine PRICEL returns following result:

  LATTYP: Found a simple tetragonal cell.
 ALAT       =     5.6275500000
 C/A-ratio  =     0.5000000000

  Lattice vectors:
  
 A1 = (  -5.6275500000,   0.0000000000,   0.0000000000)
 A2 = (   0.0000000000,   0.0000000000,  -5.6275500000)
 A3 = (   0.0000000000,  -2.8137750000,   0.0000000000)

   2 primitive cells build up your supercell.


Analysis of symmetry for initial positions (statically):

 Routine SETGRP: Setting up the symmetry group for a
 simple cubic supercell.


 Subroutine GETGRP returns: Found 16 space group operations
 (whereof 16 operations were pure point group operations)
 out of a pool of 48 trial point group operations.


The static configuration has the point symmetry D_4h.

Analysis of symmetry for dynamics (positions and initial velocities):

 Subroutine DYNSYM returns: Found 16 space group operations
 (whereof 16 operations were pure point group operations)
 out of a pool of 16 trial space group operations
 (whereof 16 operations were pure point group operations)
 and found also     2 'primitive' translations


The dynamic configuration has the point symmetry D_4h.

Analysis of constrained symmetry for selective dynamics:

 Subroutine DYNSYM returns: Found 16 space group operations
 (whereof 16 operations were pure point group operations)
 out of a pool of 16 trial space group operations
 (whereof 16 operations were pure point group operations)
 and found also     2 'primitive' translations


The constrained configuration has the point symmetry D_4h.


 KPOINTS: Auto Mesh

Automatic generation of k-mesh.
 Subroutine IBZKPT returns following result:
 ===========================================

 Found      1 irreducible k-points:

 Following reciprocal coordinates:
            Coordinates               Weight
  0.250000  0.250000  0.250000      8.000000

 Following cartesian coordinates:
            Coordinates               Weight
  0.250000  0.250000  0.250000      8.000000



--------------------------------------------------------------------------------------------------------




 Dimension of arrays:
   k-Points           NKPTS =      1   number of bands    NBANDS=      8
   number of dos      NEDOS =    301   number of ions     NIONS =      2
   non local maximal  LDIM  =      5   non local SUM 2l+1 LMDIM =     13
   total plane-waves  NPLWV =  13824
   max r-space proj   IRMAX =   4599   max aug-charges    IRDMAX=  57483
   dimension x,y,z NGX =    24 NGY =   24 NGZ =   24
   dimension x,y,z NGXF=    48 NGYF=   48 NGZF=   48
   support grid    NGXF=    96 NGYF=   96 NGZF=   96
   ions per type =               2
 NGX,Y,Z   is equivalent  to a cutoff of   7.09,  7.09,  7.09 a.u.
 NGXF,Y,Z  is equivalent  to a cutoff of  14.18, 14.18, 14.18 a.u.


 I would recommend the setting:
   dimension x,y,z NGX =    22 NGY =   22 NGZ =   22
 SYSTEM =  unknown system
 POSCAR =   title

 Startparameter for this run:
   NWRITE =      2    write-flag & timer
   PREC   = accura    medium, high low
   ISTART =      0    job   : 0-new  1-cont  2-samecut
   ICHARG =      2    charge: 1-file 2-atom 10-const
   ISPIN  =      1    spin polarized calculation?
   LNONCOLLINEAR =      F non collinear calculations
   LSORBIT =      F    spin-orbit coupling
   INIWAV =      1    electr: 0-lowe 1-rand  2-diag
   LASPH  =      F    aspherical Exc in radial PAW
   METAGGA=      F    non-selfconsistent MetaGGA calc.

 Electronic Relaxation 1
   ENCUT  =  139.2 eV  10.23 Ry    3.20 a.u.   5.41  5.41  5.41*2*pi/ulx,y,z
   ENINI  =  139.2     initial cutoff
   ENAUG  =  220.4 eV  augmentation charge cutoff
   NELM   =     60;   NELMIN=  5; NELMDL=-12     # of ELM steps
   EDIFF  = 0.1E-04   stopping-criterion for ELM
   LREAL  =      T    real-space projection
   LCOMPAT=      F    compatible to vasp.4.4
   LREAL_COMPAT= F    compatible to vasp.4.5.1-3
   GGA_COMPAT  = T    GGA compatible to vasp.4.4-vasp.4.6
   LMAXPAW     = -100 max onsite density
   LMAXMIX     =    2 max onsite mixed and CHGCAR
   VOSKOWN=      0    Vosko Wilk Nusair interpolation
   ROPT   =   -0.00025
 Ionic relaxation
   EDIFFG = 0.1E-04   stopping-criterion for IOM
   NSW    =     20    number of steps for IOM
   NBLOCK =      1;   KBLOCK =     20    inner block; outer block
   IBRION =      2    ionic relax: 0-MD 1-quasi-New 2-CG
   NFREE  =      1    steps in history (QN), initial steepest desc. (CG)
   ISIF   =      2    stress and relaxation
   IWAVPR =     11    prediction:  0-non 1-charg 2-wave 3-comb
   ISYM   =      1    0-nonsym 1-usesym 2-fastsym
   LCORR  =      T    Harris-Foulkes like correction to forces

   POTIM  =   0.50    time-step for ionic-motion
   TEIN   =    0.0    initial temperature
   TEBEG  =    0.0;   TEEND  =   0.0 temperature during run
   SMASS  =  -3.00    Nose mass-parameter (am)
   estimated Nose-frequenzy (Omega)   =  0.10E-29 period in steps =****** mass=  -0.724E-27a.u.
   NPACO  =    256;   APACO  = 16.0  distance and # of slots for P.C.
   PSTRESS=    0.0 pullay stress

  Mass of Ions in am
   POMASS =  72.61
  Ionic Valenz
   ZVAL   =   4.00
  Atomic Wigner-Seitz radii
   RWIGS  =  -1.00
   NELECT =       8.0000    total number of electrons
   NUPDOWN=      -1.0000    fix difference up-down

 DOS related values:
   EMIN   =  10.00;   EMAX   =-10.00  energy-range for DOS
   ISMEAR =    -1;   SIGMA  =   0.05  broadening in eV -4-tet -1-fermi 0-gaus

 Electronic relaxation 2 (details)
   IALGO  =     48    algorithm
   LDIAG  =      T    sub-space diagonalisation
   IMIX   =      4    mixing-type and parameters
     AMIX     =   0.80;   BMIX     =  1.00
     AMIX_MAG =   3.20;   BMIX_MAG =  1.00
     AMIN     =   0.10
     WC   =   100.;   INIMIX=   1;  MIXPRE=   1

 Intra band minimization:
   WEIMIN = 0.0010     energy-eigenvalue tresh-hold
   EBREAK =  0.31E-07  absolut break condition
   DEPER  =   0.30     relativ break condition

   TIME   =   0.10     timestep for ELM

  volume/ion in A,a.u.               =      89.11       601.35
  Fermi-wavevector in a.u.,eV,Ry     =   0.581816  4.605702  0.338510

 Second variation
   LSECVAR=     F    do a second variation

 Write flags
   LWAVE  =      T    write WAVECAR
   LCHARG =      T    write CHGCAR
   LVTOT  =      F    write LOCPOT, local potential
   LELF   =      F    write electronic localiz. function (ELF)
   LORBIT =      0    0 simple, 1 ext, 2 COOP (PROOUT)


 Dipole corrections
   IDIPOL =      0    1-x, 2-y, 3-z
   LDIPOL =      F    correct potential



--------------------------------------------------------------------------------------------------------


 conjugate gradient relaxation of ions
   using selective dynamics as specified on POSCAR
 charge density will be updated during run
 non-spin polarized calculation
 RMM-DIIS sequential band-by-band
 performe sub-space diagonalisation
    before iterative eigenvector-optimisation
 modified Broyden-mixing scheme, WC =      100.0
 initial mixing is a Kerker type mixing with AMIX =  0.8000 and BMIX =      1.0000
 Hartree-type preconditioning will be used
 using additional bands             4
 real space projection scheme for non local part
 use partial core corrections
 calculate Harris-corrections to forces
   (improved forces if not selfconsistent)
 use of overlap-Matrix (Vanderbilt PP)
 Fermi-smearing in eV        SIGMA  =   0.05


--------------------------------------------------------------------------------------------------------


  energy-cutoff  :      139.22
  volume of cell :      178.22
      direct lattice vectors                 reciprocal lattice vectors
     5.627550000  0.000000000  0.000000000     0.177697222  0.000000000  0.000000000
     0.000000000  5.627550000  0.000000000     0.000000000  0.177697222  0.000000000
     0.000000000  0.000000000  5.627550000     0.000000000  0.000000000  0.177697222

  length of vectors
     5.627550000  5.627550000  5.627550000     0.177697222  0.177697222  0.177697222



 k-points in units of 2pi/SCALE and weight: Auto Mesh
   0.25000000  0.25000000  0.25000000       1.000

 k-points in reciprocal lattice and weights: Auto Mesh
   0.25000000  0.25000000  0.25000000       1.000
 position of ions in fractional coordinates (direct lattice)
   0.00000000  0.00000000  0.00000000
   0.00000000  0.50000000  0.00000000

 position of ions in cartesian coordinates  (Angst):
   0.00000000  0.00000000  0.00000000
   0.00000000  2.81377500  0.00000000



--------------------------------------------------------------------------------------------------------


 k-point  1 :  0.25000.25000.2500  plane waves:    675

 maximum number of plane-waves:    675
 maximal index in each direction:
   IXMAX=  5   IYMAX=  5   IZMAX=  5
   IXMIN= -5   IYMIN= -5   IZMIN= -5

 NGX is ok and might be reduce to  22
 NGY is ok and might be reduce to  22
 NGZ is ok and might be reduce to  22
 For storing wavefunctions    0.09 MBYTES are necessary
 For predicting wavefunctions    1.15 MBYTES are necessary
Broyden mixing: mesh for mixing (old mesh)
   NGX = 11   NGY = 11   NGZ = 11
  (NGX  = 48   NGY  = 48   NGZ  = 48)
 gives a total of   1331 points
 initial charge density was supplied:
 charge density of overlapping atoms calculated
 number of electron    8.0000000 magnetization
 keeping initial charge density in first step


--------------------------------------------------------------------------------------------------------


 Maximum index for non-local projection operator          4385
 Maximum index for augmentation-charges         55515 (set IRDMAX)


--------------------------------------------------------------------------------------------------------


 First call to EWALD:  gamma=   0.315
 Maximum number of real-space cells 3x 3x 3
 Maximum number of reciprocal cells 3x 3x 3

    FEWALD:  VPU time    0.00: CPU time    0.00


Last edited by skodavasp on Tue May 25, 2010 7:53 pm, edited 1 time in total.

support_vasp
Global Moderator
Global Moderator
Posts: 1817
Joined: Mon Nov 18, 2019 11:00 am

Re: Different computer ==> Segmentation Faults

#2 Post by support_vasp » Wed Sep 04, 2024 12:24 pm

Hi,

We're sorry that we didn’t answer your question. This does not live up to the quality of support that we aim to provide. The team has since expanded. If we can still help with your problem, please ask again in a new post, linking to this one, and we will answer as quickly as possible.

Best wishes,

VASP


Locked